Künstliche Intelligenz gegen Cyberkriminalität

Mit künstlicher Intelligenz (KI) lassen sich Cyberangriffe abwehren. Doch KI-Systeme können auch angreifen. Das nutzen Kriminelle längst für ihre Zwecke. Heißt es also bald KI-Abwehr gegen KI-Angriff?

Kriminelle setzen bereits Bots ein, die ihre Cyberangriffe optimieren. Foto: Fotolia - Gorodenkoff

Kriminelle setzen bereits Bots ein, die ihre Cyberangriffe optimieren. Foto: Fotolia – Gorodenkoff

Künstliche Intelligenz (KI) macht Sprachassistenten möglich, hilft bei der Altenpflege oder befähigt hochautomatisierte Autos, Verkehrsschilder zu erkennen und Fahrentscheidungen zu treffen. Doch auch die Bösen haben die Macht selbstlernender Algorithmen für sich entdeckt: Sicherheitsforscher berichten davon, dass Cyberkriminelle bereits Bots einsetzen, die ihre Angriffe per Machine Learning koordinieren und optimieren. Machine Learning könnte Internet-Kriminellen künftig auch dabei helfen, Phishing-Kampagnen zu verfeinern. Der Sicherheitssoftware-Anbieter Avast prophezeit in seinem Threat Landscape Report, dass 2018 das Jahr der KI-basierten Attacken werden könnte.

Im schlimmsten Fall, so die Analysten von Avast, nutzen die Angreifer demnächst künstliche Intelligenz, um gezielt nach Schwachstellen in Systemen zu suchen, die selbst auf künstlicher Intelligenz basieren. So haben US-Sicherheitsforscher schon demonstiert, wie sich etwa Verkehrsschilder so manipulieren lassen, dass das menschliche Auge keinen Verdacht schöpft, ein KI-System aber statt einer Geschwindigkeitsbegrenzung ein Stoppschild erkennt  – mit möglicherweise drastischen Folgen. Wenn nun wiederum Sicherheitsexperten und Entwickler zunehmend auf KI setzen, um den beschriebenen Angriffsszenarien zu begegnen, könnte dieses Wettrüsten zum direkten Kampf von KI gegen KI hinauslaufen.

Künstliche Intelligenz durchsucht große Datenmengen auf Bedrohungen

Denn auch die Guten rüsten längst auf: Laut einer Studie des IBM Institute for Business Value  wird die Verbreitung von intelligenten, KI-Sicherheitslösungen in den nächsten Jahren signifikant zunehmen.

Machine Learning ist heute die Methode der Wahl, wann immer es darum geht, bestimmte Muster zu finden und künftig sicher zu identifizieren. Also setzen Sicherheitsanbieter KI-Lösungen beispielsweise dazu ein, um Trends und Anomalien in großen Datenmengen zu erfassen – etwa im Datenverkehr innerhalb des Unternehmensnetzwerks oder in eingehenden E-Mails. So lassen sich mit KI-Unterstützung zum Beispiel Spam- und Phishing-Mails identifizieren. Einfachere Ausführungen solcher Systeme sind auf privaten und geschäftlich genutzten Rechnern schon länger im Einsatz: Die typischen Spam-Filter von E-Mail-Programmen oder -Plattformen nutzen bereits seit Jahren Selbstlern-Funktionen, um unerwünschte Nachrichten besser zu erkennen.

KI-Systeme berücksichtigen weltweite Unternehmensnetze

Moderne KI-Systeme gehen jedoch noch weiter: Sie können beispielsweise im Unternehmens-Netzwerk auch versteckte Kanäle identifizieren, über die Daten abgezapft werden. Die große Stärke von KI, die Mustererkennung, ermöglicht eine beschleunigte, automatisierte Erkennung einer großen Spannweite von Sicherheitsproblemen und Anomalien. Dabei muss die KI jedoch auch darauf trainiert werden, gewöhnliche IT-Pannen von gerade stattfindenden Cyberangriffen zu unterscheiden. Zudem können sich die selbstlernenden Algorithmen auf die Interna von Unternehmen einstellen und ihre Analyseergebnisse auf dieser Basis deuten. Und auf Wunsch berücksichtigen KI-basierte Sicherheitslösungen bei solchen Analysen das gesamte globale Netzwerk eines Konzerns und nicht nur den lokalen Datenverkehr wie es bei traditionellen Sicherheitssystemen der Fall ist. In der wichtigen IT-Forensik agieren KI-Systeme somit zunehmend schneller und zuverlässiger als vergleichbare Lösungen ohne KI.

Die Künstliche Intelligenz muss darauf trainiert werden, gewöhnliche IT-Pannen von Cyberangriffen zu unterscheiden. Foto: Fotolia - sdecoret

Die künstliche Intelligenz muss darauf trainiert werden, gewöhnliche IT-Pannen von Cyberangriffen zu unterscheiden. Foto: Fotolia – sdecoret

In naher Zukunft, so die Prognose von Christian Nern, Head of Security Software DACH bei IBM Deutschland, sollen KI-basierte Sicherheitsanalyse-Systeme in der Lage sein, Angriffe weitgehend proaktiv zu erkennen und abzuwehren. Dazu erstellt zum Beispiel das IBM-System „Watson for Cyber Security“ Hochrechnungen, wie groß in jedem Moment die Bedrohung durch welche Art von Cyberattacken ist. Basis solcher Vorhersagen sind Erkenntnisse darüber, wo zu einem beliebigen Zeitpunkt Angriffe welcher Art und nach welchen Mustern registriert werden.

Die konkreten Aufgabenstellungen für die künstlichen Intelligenzen lassen sich dabei an das Geschäftsmodell ihres jeweiligen Betreibers anpassen. So hat etwa Amazon Anfang 2017 das Unternehmen Harvest.AI übernommen, dessen selbstlernende Algorithmen auf die Erkennung von geistigem Eigentum spezialisiert sind.

KI-Systeme führen selbstständig Analysen durch

Manche Anbieter wie Avast, Cylance oder Samsung sprechen auch von der „ersten Generation“ KI-basierter Sicherheitslösungen. Nach dieser Definition ist diese erste Generation vor allem auf das Durchsuchen vorstrukturierter Daten wie eingehender E-Mails oder die Erkennung eindeutig identifizierbarer Bedrohungen ausgelegt. Der nächste Entwicklungsschritt hin zur „zweiten Generation“ wäre dann eine selbstständigere Ausführung breiter definierter Analyseaufgaben wie der Suche nach Bedrohungen im gesamten Netzwerkverkehr oder komplexerer Angriffsszenarien. So soll KI in Zukunft nicht nur die Erkennung, sondern auch die Abwehr von Bedrohungen automatisieren – auch wenn auf absehbare Zeit menschliche Systemüberwacher die letzte Entscheidungshoheit behalten. Spezialisierte KI-Systeme liefern ihnen zu diesem Zweck fundierte Entscheidungsvorlagen. Sicherheitsanbieter bezeichnen diese Funktion als „Augmented Intelligence“.

In einigen Jahren, so zumindest die Hoffnung von IBM-Software-Sicherheitschef Christian Nern, könnten Konfrontationen zwischen Cyberkriminellen und Sicherheitsverantwortlichen jedoch direkt zwischen den von ihnen eingesetzten KI-Systemen ausgetragen werden. In dieser Zukunft, so Kern, wäre der tatsächliche Kampf zwischen einer – hoffentlich überlegenen – Unternehmens-KI gegen die von Cyberkriminellen genutzte KI in manchen Fällen vielleicht gar nicht mehr nötig. „Dann schauen sich beide KI-Systeme nur einen Moment wie zwei wütende Wölfe an, wobei das unterlegene Tier seine Schwäche spürt und sich instinktiv zurückzieht.“

Wo bleibt der Mensch?

Roboter auf dem Vormarsch