Der alte Kampf mit neuen Waffen

Künstliche Intelligenz und IT-Sicherheit Der alte Kampf mit neuen Waffen Der einzige Trost beim Thema künstliche Intelligenz und Cybersicherheit? Dass auch die Angreifer nicht verstehen, wie die technologische Black Box KI genau funktioniert. Steve Rymell, Technikchef bei Airbus CyberSecurity, berichtet über die Notwendigkeit, künstliche Intelligenz auf dem Feld der IT-Sicherheit im Auge zu behalten – […]

Künstliche Intelligenz und IT-Sicherheit

Der alte Kampf mit neuen Waffen

Bild: ©Gorodenkoff/stock.adobe.com

Der einzige Trost beim Thema künstliche Intelligenz und Cybersicherheit? Dass auch die Angreifer nicht verstehen, wie die technologische Black Box KI genau funktioniert. Steve Rymell, Technikchef bei Airbus CyberSecurity, berichtet über die Notwendigkeit, künstliche Intelligenz auf dem Feld der IT-Sicherheit im Auge zu behalten – ohne ihr freilich einen Sonderstatus zuzuweisen.


Eines der auffälligsten Probleme der Cybersicherheitsbranche ist, dass Angreifer oft in der Lage sind, Verteidigern scheinbar mühelos einen Schritt voraus zu sein. Die grundsätzlichen Ursachen sind hier meist technischer Natur. Bestes Beispiel sind Software-Schwachstellen, die Cyberkriminelle in der Regel vor Anbietern und ihren Kunden aufdecken. Gegen dieses sogenannte Zero-Day-Phänomen bei vielen bekannten Cyberattacken sind selbst Sicherheitsexperten nahezu machtlos. Zudem machen Unternehmen, die mit der Komplexität neuer Technologien zu kämpfen haben, Fehler und lassen unbeabsichtigt gefährdete Ports und Services ungeschützt. Ein besonders drastisches Beispiel dafür sind Tools und Infrastrukturen, die Organisationen eigentlich dabei helfen sollten, sich zu verteidigen (z.B. Shodan, aber auch zahlreiche Pen-Test-Tools), mittlerweile aber genauso von Angreifern, die in Netzwerke eindringen, gegen Unternehmen eingesetzt werden können. Hinzu kommt, dass moderne Malware derart vielseitig auftreten kann, dass Angreifer fast unaufhaltsam erscheinen. So betonen selbst Sicherheitsanbieter zunehmend die Notwendigkeit, Angriffe nicht zu blockieren, sondern stattdessen so schnell wie möglich auf diese zu reagieren.

Der KI-Gegenangriff

Vor einigen Jahren gingen einige, meist in den USA ansässige, Startups mit einer mutigen neuen Idee zu einer Art Gegenangriff über – Machine-Learning-Security durch Algorithmen. Machine Learning (ML) wird hauptsächlich verwendet, um Daten zu kategorisieren, die mit Datenklassen übereinstimmen, die für das Training des ML-Algorithmus verwendet werden. Die Ansprüche an die KI im Cyberspace ist die Fähigkeit, Zero-Day-Malware oder Anomalien im Netzwerkverkehr zu erkennen. Dies ist ein Schritt weg von der Identifikation bereits bekannter Bedrohungen hin zum Versuch, das Unbekannte zu erkennen. Es handelt sich also um eine Weiterentwicklung der ML-Techniken, die es (in einigen Fällen) ermöglicht hat, die Raten von falsch-positiven und falsch-negativen Meldungen auf ein Niveau zu reduzieren, auf dem die Technologie nützlich sein kann. Große Unternehmen scannen möglicherweise Tausende von Dateien pro Tag, sodass selbst eine False-Positive-Rate von einigen Prozent in absoluten Zahlen ein Problem darstellen würde. Im Zeitalter von Big Data kann diese Herangehensweise durchaus sinnvoll sein, die Idee wurde deshalb auch von verschiedenen Systemen zur Bekämpfung von Spam, Malware-Erkennung, Bedrohungsanalyse und -aufklärung sowie zur Automatisierung des Security Operations Centre (SoC) aufgegriffen, wo sie auch dem Fachkräftemangel entgegenwirkt.

Kaum jemand versteht die Black Box

Bei allen Fortschritten wird dieser Ansatz von manchen auch als ultimatives Beispiel für Technologie als Black Box bezeichnet, die niemand wirklich versteht. Der Großteil der KI basiert auf maschinellem Lernen, das im Wesentlichen eine statistische Technik ist, die Ereignisse oberhalb einer bestimmten Schwelle meldet. Bei unüberwachtem Lernen (d.h. das System aktualisiert sich ständig in Abhängigkeit von den bisherigen Ergebnissen) gibt es nicht einmal die Garantie, für die gleiche Eingabe das gleiche Ergebnis zweimal zu erhalten, es ist also nicht deterministisch. Daher ist es schwierig, einen Benchmark zu schaffen, die Ergebnisse sind als Beweis nicht zulässig. Stattdessen ist zur Überprüfung der Ergebnisse immer eine weitere Analyse erforderlich. Woher wissen wir, dass Machine Learning in der Lage ist, neue und unbekannte Angriffstypen zu erkennen, die herkömmliche Systeme nicht erkennen? Weil die Produktbroschüre dies sagt? Wie bereits erwähnt, garantiert das Training eines ML-Systems mit bekannter Malware nicht, dass es neue auch erkennt. Tatsächlich wird es wahrscheinlich nur routinemäßige Varianten der Malware erkennen, für die das System geschult wurde. Einige ML-Systeme sind daher kaum besser als Heuristiken oder Analytic Use Cases, die als Skripte für bekannte bösartige Aktivitäten entwickelt wurden. ML sollte daher nur als eines der Werkzeuge in der Analysten-Toolbox und nicht als eine einzige magische Lösung verstanden werden. Tatsächlich können schlecht konstruierte Systeme mit hohen False-Positive-Raten die oft begrenzte Zeit von Analysten verschwenden. Und weiter: Was sollte Angreifer davon abhalten, das defensive ML mit einem noch besseren zu überlisten? Wenn dies auch nur in wenigen Fällen möglich wäre, stehen wir wieder komplett am Anfang. Das ist natürlich reine Spekulation, denn bisher konnte kein Einsatz von KI in einem Cyberangriff nachgewiesen werden. Unser Verständnis davon, wie es funktionieren könnte, basiert weitgehend auf akademischer Forschung wie IBMs Proof-of-Concept DeepLocker Malware Project.

Seiten: 1 2Auf einer Seite lesen

Autor: Airbus CyberSecurity
www.airbus-cyber-security.com

News

Fachbeiträge

AI at the Edge

AI at the EdgeProgrammierung von AI-Lösungen unter...

Weitere Fachbeiträge

Was ist künstliche Intelligenz?

Was ist künstliche Intelligenz? Anspruchsvolle Probleme einfach per KI lösen Kaum eine Digitalstrategie kommt heutzutage ohne künstliche Intelligenz aus. Doch was zeichnet eine KI aus und wo kommt sie zum Einsatz? Künstliche Intelligenz ist ein Zweig der Informatik,...

Machine Learning kann Liquidität steigern

Volle Auftragsbücher und trotzdem insolvent – dieses Schicksal kann selbst stabile Unternehmen ereilen, wenn ihre Großkunden nicht pünktlich zahlen. Dabei lässt sich die Liquidität sichern, wenn rechtzeitig die richtigen Infos bereitstehen. Machine Learning macht genau das jetzt automatisiert möglich.

Der digitale Zwilling im Fahrzeugbau

Wie mit Daten die Entwicklung beschleunigt werden kann Der digitale Zwilling im Fahrzeugbau Fahrzeugbauer erhalten Erkenntnisse über die Qualität und Fahrverhalten neuer Automodelle unter Realbedingungen. Die dabei gesammelten Daten bilden jedoch immer häufiger die...

RPA trifft künstliche Intelligenz

Intelligent Automation steht für eine neue Stufe in der Zusammenarbeit von Mensch und Maschine. Smarte Automatisierung verändert mithilfe von KI und Analytics die Geschäftsprozesse in Unternehmen grundlegend. Für die aktuelle Studie hat Deloitte weltweit Unternehmen befragt: Wie skalieren sie ihre Automatisierungsstrategie erfolgreich? Und sind sie bereit, menschliche und maschinelle Intelligenz zu kombinieren, um das volle Potential der neuen Technologie zu schöpfen?

Software-Roboter im Internet der Dinge

Künstliche Intelligenz und das Internet of Things sind für sich alleine schon faszinierende Technologien. Werden beide kombiniert, eröffnet dies neue Anwendungszenarien für die Optimierung von Geschäftsprozessen. Dabei sammelt das IoT die Daten, während die KI sie verarbeitet, um ihnen Bedeutung zu verleihen.

Mehr Speicher für mehr Daten

Autonomes Fahren Mehr Speicher für mehr Daten Künstliche Intelligenz spielt bei der Zukunft der Mobilität eine große Rolle, da Fahrzeuge immer abhängiger von immer mehr Daten werden. Dies erfordert neue Speicherlösungen, die es ermöglichen, Daten nahtlos zwischen...

Anomaly Detection

Anomaly Detection Anomalien einfach und zielsicher mit wenigen Bildern erkennen Deep-Learning-Verfahren werden sowohl für die Identifikation von Objekten als auch für die Detektion von Fehlern eingesetzt. Mit der Anomaly Detection in Halcon 19.11 lassen sich nun auch...

Maschinen und Geräte mit KI noch intelligenter machen

Der Elektronikhersteller E.D.&A. setzt neuronale Netzwerke ein, um seine elektronischen Steuerungen intelligenter zu gestalten. Binäre neuronale Netzwerke sind für die Erkennung von Mustern sehr gut geeignet und können daher eingesetzt werden, um Probleme anders anzugehen.

News

→ MEHR