- Anzeige -
- Anzeige -
Der alte Kampf mit neuen Waffen

Bösartiges Machine Learning

Diese Bedrohungs-Potenziale sollte man dennoch rechtzeitig in den Blick nehmen. Angreifer sind darauf angewiesen, schnell erkennen zu können, was funktioniert, etwa beim Versenden von Spam, Phishing und zunehmend auch politischer Desinformation. Es ist vorstellbar, dass Big-Data-Ansätze mit Unterstützung durch ML die Effizienz dieser Bedrohungen massiv steigern, zum Beispiel durch eine Analyse, wie die Ziele darauf reagieren und dies in Echtzeit teilen. Dies impliziert die Möglichkeit, dass solche Kampagnen in nicht allzu ferner Zukunft in wenigen Stunden oder Minuten weiterentwickelt werden könnten. Das zeitnahe Bekämpfen mit heutigen Technologien würde dann extrem schwer werden. Ein zweites Szenario wäre, dass Cyberkriminelle die Schutzmaßnahmen eines Ziels mit eigenem ML simulieren, um die Erfolgsaussichten verschiedener Angriffe zu messen. Diese Technik wird bereits routinemäßig zur Umgehung von Antivirenprogrammen eingesetzt. Auch hier wird der Vorteil genutzt, dass Angreifer immer das Ziel im Blick haben, während sich Verteidiger auf Schätzungen verlassen müssen. Und hochwahrscheinlich könnte ML auch einfach dazu verwendet werden, weit größere Mengen an neuer und individueller Malware als heute zu generieren. Welcher dieser oder anderer Ansätze auch immer gewählt wird: Es ist deutlich zu sehen, wie schwierig die Verteidigung selbst gegen relativ einfache ML-basierte Angriffe wäre. Dann bliebe als einziger Trost, dass die ML-basierte KI für Angreifer wie Verteidiger gleichermaßen eine Black Box ist. Dann verschwänden Angreifer ihre Zeit wenigstens mit Experimenten, sie zu verstehen.

Unbeabsichtigte Folgen

Trotzdem sollten wir uns gerade deswegen vor dem Blackbox-Effekt in Acht nehmen. Zum einen besteht bei ML-basierter Malware die Gefahr, dass sie Ungewolltes bewirkt, insbesondere beim Angriff auf kritische Infrastrukturen. Dieses Phänomen ist beispielsweise bei der Malware Stuxnet im Jahr 2010 und NotPetya im Jahr 2017 aufgetreten, ganz ohne KI. In beiden Fällen wurden Tausende von Organisationen infiziert, die nicht auf der ursprünglichen Zielliste standen, nachdem sich die Malware unkontrolliert verbreitet hatte. Wenn Schadsoftware gleich mehrere Zero Day Exploits nutzt, gibt es kaum Chancen, sie wirksam einzugrenzen. Nach der Veröffentlichung bleibt diese Art von Malware pathogen gefährlich, bis jedes System, das sie infizieren könnte, gepatcht oder offline genommen wird, was Jahre oder Jahrzehnte dauern kann. Da Fachwissen zum Verständnis von ML bislang sehr rar ist, besteht zudem die Gefahr, dass sich Sicherheitsexperten darauf verlassen, ohne die Grenzen des Ansatzes vollständig zu verstehen. Dies betrifft sowohl die Verteidigungsmöglichkeiten, als auch eine Überschätzung von Angriffspotentialen. Das könnte dazu führen, dass zu viel an falscher Stelle investiert und Marketingversprechen geglaubt werden, die am Ende Ressourcen verbrauchen, die an anderer Stelle mehr geholfen hätten. Eine realistischere Bewertung könnte ML dagegen als weiteres Werkzeug einstufen, das gut darin ist, bestimmte sehr spezifische Probleme zu lösen. Ein gut entwickeltes ML-System, das auf einem umfangreichen und vielfältigen Datensatz basiert, kann ein nützliches Werkzeug sein, um neue Varianten von Malware zu erkennen, z.B. neue Zero-Day-Angriffe und Anomalien im Netzwerkverkehr. Es kann eine Reduzierung der Notwendigkeit der Entwicklung von Use-Case-Skripten ermöglichen, die im SIEM (Security Information and Event Management) ausgeführt werden, um bekannte bösartige Aktivitäten zu erkennen. Seinen Hauptnutzen könnte es jedoch als Screening-Tool haben, um offensichtliche Störungen des Datenverkehrs zu eliminieren, so wie es Antivirenprogramme heute tun. Andere Tools oder Analytiker haben damit die Möglichkeit, sich auf andere Aufgaben konzentrieren zu können.

Fazit

Die zunächst widersprüchlich klingende Schlussfolgerung ist, dass ML und KI vielleicht überhaupt keinen grundlegenden Unterschied machen. Sie stellen lediglich eine weitere Station in der Entwicklung der Computersicherheit seit Beginn der digitalen Zeitrechnung dar. Hier müssen Vorurteile abgebaut werden, was diese bewirken können. Vor allem müssen wir die Tendenz überwinden, ML und KI als geheimnisvoll anders zu betrachten, weil wir sie nicht verstehen und es daher schwierig finden, das Konzept von Maschinen, die komplexe Entscheidungen treffen, zu akzeptieren. Auch mit der heutigen Pre-ML-Technologie sind Angreifer bereits in der Lage, tief in Netzwerke einzudringen. Auch heute werden sie dabei bereits von gut vorbereiteten Verteidigern regelmäßig mit der gleichen Technologie aufgehalten. Das erinnert alles daran, dass letztlich zählt, wie Organisationen verteidigt werden – und nicht wogegen.

Seiten: 1 2Auf einer Seite lesen

- Anzeige -
- Anzeige -

Das könnte Sie auch Interessieren

Bild: TeDo Verlag GmbH
Bild: TeDo Verlag GmbH
Deep Learning Webinar

Deep Learning Webinar

Bild: TeDo Verlag GmbH Am Dienstag den 9. Februar beginnen die diesjährigen inVision TechTalks Webinare. Thema ist dann ab 14:00 Uhr Deep Learning. Vecow, Adaptive Vision und Flir geben in drei Kurzreferaten über jeweils 20 Minuten ein Überblick über aktuelle...