Wer macht die Spielregeln für die KI?

Ethik und künstliche Intelligenz

Wer macht die Spielregeln für die KI?

Bild: ©rcfotostock/stock.adobe.com

Meistens wird künstliche Intelligenz in Bezug auf ihren Nutzen diskutiert, während mögliche Risiken allenfalls beiläufig erwähnt werden. Doch die autonomen Systemen haben das Potenzial, auf die gesamte Gesellschaft einzuwirken. Darum sollten beim Einsatz von KI stets ethische Aspekte einbezogen werden.


Unbestritten liegen die Vorteile beim Einsatz von KI auf der Hand: Mittels Algorithmen können unter anderem Unternehmensprozesse effizienter gestaltet, Kosten eingespart oder auch Fehlerquellen im Produktionsablauf detektiert und beseitigt werden. Alles gute Argumente, die für einen extensiven Einsatz von KI sprechen. Woraus sollte also die Notwendigkeit einer Ethik-Diskussion resultieren? Auch dafür gibt es substanzielle Gründe: Ein wesentlicher ist, dass weltweit Konsumenten – denen im Regelfall der Einblick in die Technologie sowie die notwendigen Grundlagen für deren Folgenabschätzung fehlt – Unternehmen in der Verantwortung sehen, unter anderem KI ethisch vertretbar einzusetzen. Somit sind die Mitgestalter der digitalen Evolution im Prinzip gefordert – nicht nur hinsichtlich ihres Unternehmens sondern gleichwohl im Sinne des Einzelnen als auch der Gesellschaft – gewissenhaft zu handeln. Diese Verantwortlichkeit resultiert nicht zuletzt daraus, dass im speziellen der Einsatz von KI nicht nur dem Einzelnen Nachteile bringen sondern ganzen Gesellschaften massiv Schaden zufügen kann. Denn während einer Person hierdurch eventuell ein Verlust bezüglich der digitalen Sicherheit, Privatsphäre, Reputation oder auch die Verletzung des Grundsatzes der Gleichbehandlung droht, potenzieren sich die möglichen Folgen für die Gesellschaft um ein Vielfaches. Angefangen bei der Schwächung der Wirtschaftskraft eines Landes, da bei Unternehmen aufgrund der zunehmenden Komplexität sowie dem Einsatz von KI die Verwundbarkeit und somit das Risiko zur Zielscheibe von Angriffen zu werden steigt. Des Weiteren sind aufgrund dieser Faktoren auch negative Effekte im Bezug auf die nationale Sicherheit oder die politische Stabilität als mögliche Konsequenzen denkbar. Folglich sollten potentielle Unwägbarkeiten, die aus dem Einsatz resultieren können, genauer betrachtet werden. Denn de facto ist in einigen Bereichen der Reifegrad der Technologie so gering, dass die Effekte, die aus deren Einsatz möglicherweise resultieren, sich noch nicht umfassend prognostizieren lassen. Anhand von Beispielen, die bereits in der Entwicklung weiter fortgeschritten sind – wie etwa das selbstfahrende Automobil – zeigt sich jedoch, wie groß hier der Diskussionsbedarf ist. Zum Beispiel im Hinblick auf die Bewertung fehlerhafter Entscheidungen, die unter anderem zur Verursachung von Unfällen geführt haben, und möglicher Konsequenzen durch den Verlust der Vertraulichkeit bezüglich der Mobilität.

KI und Sicherheit aus Sicht der Ethik

Da nicht nur aus dem Einsatz von KI neue Schwachstellen resultieren, sondern auch mittels KI neue Angriffsmöglichkeiten auf Staat und Unternehmen möglich sind, erscheint es als eine logische Schlussfolgerung, kriminelle Attacken auf gleicher Ebene abzuwehren – also IT-Systeme und IT-Infrastrukturen mit KI-Systemen zu schützen. Obwohl KI im Kontext der IT-Sicherheit unweigerlich als probates Mittel zur Abwehr scheint, ist auch hier die Frage zu diskutieren, in welchem Rahmen dies angemessen ist. Warum dieser Diskurs nötig ist und welche Forschungsfragen in diesem Kontext zu bearbeiten sind, wird nachfolgend exemplarisch anhand von drei Szenarien aus dem Bereich des Schutzes der IT dokumentiert.

1. Privatheit vs. Allgemeinwohl: Der Schutz von Daten

Wenn mittels KI bessere IT-Schutzmaßnahmen möglich sind, lässt sich ein Angriff schneller und präziser detektieren, je mehr Daten mit sicherheitsrelevanten Informationen zur Verfügung stehen. Daraus lässt sich auch ableiten, dass für eine bestmögliche Kennung in bestimmten Fällen die Einbeziehung personenbezogener Daten von Mitarbeitern unverzichtbar ist, da viele Angriffe mit Hilfe von Social Engineering und Malware über die Rechner der Mitarbeiter indirekt durchgeführt werden. Eine Notwendigkeit für deren Hinzunahme könnte sich z.B. für den Fall ergeben, wenn ein Energieversorger angegriffen wird, da dies eine präzise Ursachenforschung für die schnellstmögliche Reaktion zur unterbrechungsfreien Stromversorgung verlangt. Der Bedarf ist theoretisch nachvollziehbar – andererseits werden dadurch die Individualrechte außer Kraft gesetzt, da die Nutzung von personenbezogenen Daten durch die DSGVO exakt limitiert ist. Im konkreten Fall würde dies bedeuten, dass durch eine Analyse der Daten parallel das Verhalten der Mitarbeiter ausgewertet und somit deren Privatsphäre verletzt wird. Daraus resultiert folgendes Dilemma: Die Ethik fordert, dass keine grundlegenden Rechte wie die Privatheit zugunsten eines höheren Ziels völlig aufgegeben werden dürfen. Dagegen steht die Prämisse des Strebens nach dem Gesamtnutzen für die Gesellschaft. Aus dieser resultiert dann zwangsläufig die Fragestellung, wann es angeraten oder sogar unabdingbar ist, die Rechte des Individuums zugunsten des Wohles für die Gemeinschaft aufzuheben. Ein mögliche Annäherung zur Auflösung dieses Dilemma könnte sein, hierfür Grenzen zu definieren, indem Kriterien dafür festgelegt werden, wann das Individualrecht nachrangig zu behandeln ist. Dazu bedarf es unter anderem der Forschung bezüglich der Wertvorstellungen, auch um sicherzustellen, dass die Beurteilung mit den höheren Ziele einer Gesellschaft konform sind.

2. Neutral vs. voreingenommen: Das Problem der Bias

Aufgrund der Quantität als auch Vielfältigkeit an Angriffsarten mit denen Unternehmen und staatliche Institutionen täglich attackiert werden, sollten IT-Sicherheitsverantwortliche durch KI unterstützt werden. Etwa indem automatisiert eine Liste der zehn gravierendsten Bedrohungen inklusive Handlungsempfehlungen zur Verfügung gestellt werden, die dann priorisiert im Sinn der optimalen Schadensbegrenzung umsetzbar sind. Obwohl diese Vorgehensweise sinnvoll erscheint, entsteht daraus potentiell ein Dilemma im Bezug auf die richtige Handlungsweise, allein basierend auf der Tatsache einer algorithmischen Voreingenommenheit bzw. Verzerrung. Denn die Auswahl der sicherheitsrelevanten Daten, geprägt u.a. durch Erfahrungswerte aus der Vergangenheit und Vorurteile, beeinflusst die zukünftigen Ergebnisse. Das wird etwa an statistischen Analysen im Kontext der Polizeiarbeit in den USA deutlich – die Annahme, dass eine bestimmte Bevölkerungsgruppe eher zu Straftaten neigt, legt den Fokus auf diese und wird dann kontinuierlich anhand aktualisierter Werte weiter bestätigt. Analog dazu wäre es vorstellbar, dass komplexe Angriffe auf Institutionen bevorzugt mit China in Verbindung gebracht werden. Dies hätte dann zur Folge, dass ein Hauptaugenmerk auf Angriffe aus diesem Land läge, die automatisch als gravierender bewertet würden, inklusive obligatorischer Vorgaben, bestimmte Maßnahmen zu ergreifen. Die Analyse, ob es der Realität entspricht oder ob der Angriff einer anderen Nation viel kritischer einzustufen wäre, würde dann sekundär. Da sich im Einzelfall aus der Masse der vorliegenden sicherheitsrelevanten Daten nicht ad hoc entscheiden lässt, ob die KI die richtigen Präferenzen getroffen hat, sollte das Feld der algorithmischen Voreingenommenheit weiter erforscht werden.

3. Strike Back: Unvollständigkeit der Daten

Dem Konstrukt des Strike Back liegt die Hypothese zugrunde, dass ein Angriff durch einen Gegenangriff beendet werden kann. Unter Einsatz von KI wäre es theoretisch möglich, eine vollkommen neutrale Einschätzung zu ermitteln, was unternommen werden müsste, um einen Angreifer zum Aufgeben zu motivieren. Die ethische Frage in diesem Kontext dreht sich um den Begriff der Neutralität und ob es überhaupt möglich ist, wirklich vollständige Daten zu erheben, um eine ausgewogene und verantwortliche Entscheidung durch KI-Systeme errechnen zu lassen. Davon ausgehend, dass ein Strike Back automatisiert erfolgt, könnte möglicherweise ein Schaden auf einer höheren Ebene angerichtet werden, der moralisch nicht vertretbar wäre. Fragestellungen wie diese zeigen den eklatanten Forschungsbedarf dahingehend auf, inwieweit es leistbar ist vertrauenswürdige KI-Systeme zu entwickeln, die den Schutz der Zivilgesellschaft gewährleisten können.

Fazit

Beim Einsatz von KI muss ein rationaler verantwortungsvoller Umgang mit dieser oberste Priorität haben. Die Probleme werden allein aufgrund der Komplexität weiter zunehmen – bereits aus dem Grund, dass bei den Angriffen verstärkt KI zum Einsatz kommt. Um hier in puncto Ethik die Rahmenbedingungen zu gestalten, gilt es auch im Bereich Sicherheit den gesellschaftlichen Diskurs zu führen. Etwa dahingehend, welchen Stellenwert die Sicherheit einnehmen soll und ab welchem Grad der Sicherheit eine Situation als sicher gilt. Denn diese Kriterien haben unter anderem einen Effekt auf die Entscheidung, was für eine Gesellschaft akzeptabel ist – etwa der automatisierte Einsatz von Strike Back. Dies verlangt auch die offene Debatte darüber ein, wie weit es möglich ist, sich auf Technologie zu verlassen. Das lässt den Schluss zu, dass aufgrund der Komplexität und der technologischen Weiterentwicklung bei wichtigen Anwendungen der Menschen als kontrollierende Instanz einzubinden ist. Ergebnisse von KI-Systemen sollten als Handlungsempfehlung verstanden werden, denen Menschen folgen können, oder eben nicht. Damit wird die Selbstbestimmtheit und Souveränität der Menschen gefördert sowie gleichzeitig die Vertrauenswürdigkeit in KI-Systeme erhöht.

Das könnte Sie auch Interessieren

Bild: IFS Deutschland GmbH & Co. KGBild:©Tierney/stock.adobe.comBild: acatech - Dt. Akademie der TechnikwissenschaftenBild: IFS Deutschland GmbH & Co. KGBild: Zentrum für Europäische WirtschaftsforschungBild: ©branex/fotolia.com
Bild: IFS Deutschland GmbH & Co. KGBild:©Tierney/stock.adobe.comBild: acatech - Dt. Akademie der TechnikwissenschaftenBild: IFS Deutschland GmbH & Co. KGBild: Zentrum für Europäische WirtschaftsforschungBild: ©branex/fotolia.com
Erfolgsfaktor künstliche Intelligenz – immer mehr Maschinenbauer und Startups finden zusammen

Erfolgsfaktor künstliche Intelligenz – immer mehr Maschinenbauer und Startups finden zusammen

Bild: IFS Deutschland GmbH & Co. KGBild:©Tierney/stock.adobe.comBild: acatech - Dt. Akademie der TechnikwissenschaftenBild: IFS Deutschland GmbH & Co. KGBild: Zentrum für Europäische WirtschaftsforschungBild: ©branex/fotolia.com Aus der Analyse ergibt sich...