Automatisierung des Denkens – Chancen und Risiken

Gesellschaftliche Aspekte von künstlicher Intelligenz:

Automatisierung des Denkens –
Chancen und Risiken

Bild: Silicon Software GmbH

Politik, Wissenschaft und Wirtschaft investieren weltweit Milliarden in die Weiterentwicklung des Einsatzes von künstlicher Intelligenz (KI) in unterschiedlichsten gesellschaftlichen Bereichen. Gleichzeitig versuchen sie, Rahmenbedingungen durch Gesetze, Normen und ethische Leitlinien für einen sinnvollen Umgang mit der Technologie zu schaffen und den gesellschaftlichen Nutzen hervorzuheben, um Vorbehalte in der Bevölkerung zu verringern und Akzeptanz zu schaffen. Wie weit ist die Technologie heute und was steht uns in naher Zukunft noch bevor? Tritt der Mensch seine Entscheidungshoheit mehr und mehr an Maschinen ab, die Entscheidungen teils schneller aber durch Hinzulernen veränderlich treffen?


Künstliche Intelligenz umfasst unterschiedliche Technologien: Algorithmen, die über ein höheres, das heißt menschlicheres Denk- und Begriffsvermögen verfügen durch Nachahmung von menschlichen Denkprozessen und der synaptischen Verbindungen im Gehirn; maschinelles Lernen über Algorithmen, die fortlaufend und ohne weiteres Eingreifen des Menschen lernen, Aufgaben zu bewältigen; die Zusammenarbeit zwischen Mensch und Maschine sowie in Roboter eingebaute KI-Systeme. Unternehmen, die auf KI setzen, versprechen sich mehr Umsatz. Die Forschung und Entwicklung beschäftigt sich schwerpunktmäßig mit der Automatisierung menschlichen intelligenten Verhaltens wie Denken, Wissensverarbeitung, Planung, Kommunikation und Wahrnehmung – bis hin zu Systemen, die jede intellektuelle Aufgabe bewältigen, zu der Menschen fähig sind. Diese Idee einer menschenähnlichen Intelligenz von Maschinen, Geräten oder Robotern scheint noch in der weiten Zukunft zu liegen, ist daher spekulativ und kann derzeit kaum als Basis für die Bewertung ethischer und gesellschaftlicher Aspekte dienen. Denn Maschinen lernen nur aus der Vergangenheit und sind nicht imstande, sich die Zukunft vorzustellen. Von Verstehen und Bewusstsein sind intelligente Systeme noch weit entfernt. Menschliche Fähigkeiten wie Flexibilität, Kreativität, emotionale Intelligenz und kritisches Urteilsvermögen sind Maschinen (noch) fremd. Bis künstliche Intelligenz menschliches Niveau erreicht kann es noch Jahrzehnte bis ein Jahrhundert lang dauern, schätzen Wissenschaftler. Somit stehen derzeit die Kollaboration von Mensch und Maschine und die Synergie der jeweiligen Stärken im Mittelpunkt des Technologieeinsatzes, auch wenn die Forschung sich mit weitergehenden Zukunftsszenarien beschäftigt. Wie werden Mensch und Maschine künftig zusammenarbeiten? Unterstützt KI die Entscheidungsfindung oder trifft sie selbst autonom Entscheidungen? Das Szenario für die kommenden Jahre lautet am wahrscheinlichsten: KI-Systeme und menschliche Experten treffen gemeinsam bessere Entscheidungen als jeweils für sich allein – wobei der Mensch in manchen Fällen gänzlich zurücktritt. So werden autonome Schiffe Gefahren selbstständig ausweichen und komplexe Andockmanöver ohne Kapitän auf der Brücke bewältigen. Mit Sensoren und Computertechnologie ausgestattete intelligente Roboter werden Sensordaten nicht nur lesen, sondern sie interpretieren und ihre Aktionen entsprechend dieser Interpretation modifizieren. Daher wird künstliche Intelligenz heutzutage im Wesentlichen in spezifischen Anwendungen als maschinelles Lernen eingesetzt. Hierbei wird eine Maschine mit einem gewissen Grad an Intelligenz und Autonomie ausgestattet durch Anlernen von Fähigkeiten anstatt wie bisher durch Programmieren. Ziel beim maschinellen Lernen ist es, Daten aus verschiedenen Quellen intelligent miteinander zu verknüpfen, relevante Zusammenhänge zu erkennen, Rückschlüsse zu ziehen und Vorhersagen zu treffen. Im industriellen Umfeld beispielsweise ermöglicht es die Vorhersage bestimmter Situationen wie Maschinenausfälle (vorausschauende Wartung) oder die Unterstützung des Maschinenbedieners durch Expertensysteme und somit die Optimierung betrieblicher Abläufe. KI-Anwendungen wie virtuelle Assistenten, Spracherkennung, selbstfahrende Autos und vieles mehr sind in aller Munde. Die Chancen und Vorteile der KI sind – allen Vorbehalten zum Trotz – eher unstrittig. Doch wie lassen sich bei einer solch sinnvollen Technologie zu viel Maschinenautonomie oder gar Missbrauch (von Daten und Entscheidungen) vermeiden bzw. ausschließen und ethische Maßstäbe, Sicherheit sowie Schutz der Privatsphäre gewährleisten?

Transparenz vs. Datenschutz

Intransparente Blackbox-Algorithmen und automatisierte Entscheidungsfindung schrecken viele Menschen ab. Sie empfinden eine Ohnmacht gegenüber Technologieentscheidungen, die sie unmittelbar betreffen oder betroffen machen. Nachrichten über den Einsatz autonomer Waffensysteme, undurchsichtige Überwachung von Menschen, Schufa-Ratings oder über fehlerhaftes autonomes Fahren sind Negativbeispiele – umso mehr wenn Fehler gehäuft auftreten wie bei der versuchsweisen massenhaften Gesichtserkennung an Bahnhöfen. Oder wenn Einkäufe für Freunde bei Amazon das eigene Profil ändern, was dann nicht mehr zu korrigieren ist. Dagegen steht eine Fülle sinnvoller Einsatzszenarien wie etwa in der Medizin, wo ein angelerntes intelligentes System bessere Ergebnisse beim Hautscreening lieferte als die meisten der 58 geladenen Hautärzte. Genauso bahnbrechend ist die Entwicklung von `Radiomics´. Dabei werden radiologische Daten mit molekularbiologischen Daten und weiteren klinischen Kennzeichen in Beziehung gesetzt und über Algorithmen interpretiert. Künstliche Intelligenz ist in der Medizin eine wichtige unterstützende Hilfe für die Diagnostik, um z.B. Mikrometastasen oder schwere Krankheiten wie Psychosen, Depressionen, Krebs und Alzheimer noch im Anfangsstadium viel früher zu erkennen. Bislang bildeten Algorithmen die Basis für Daten, die zu Entscheidungen führten. Mit künstlicher Intelligenz finden Algorithmen aus komplexen Datenmengen Muster als Basis für Entscheidungen und treffen Vorhersagen, die mit einer gewissen Wahrscheinlichkeit eintreten. Algorithmen können neue Kausalitäten finden, die Menschen bislang verborgen waren. Bereits heute entscheiden Algorithmen, ob man am Automaten sein Geld ausbezahlt bekommt, erkennen Gesichter in den sozialen Medien und bearbeiten Aufgaben auf dem Smartphone. Wie steht es hier um den Konsumentenschutz? Immer häufiger werden private Daten und Merkmale zur Datenverarbeitung herangezogen und miteinander verknüpft. Die EU-Datenschutzgrundverordnung schreibt Transparenz bei Entscheidungen vor. Bei der Frage, warum ein Kredit abgelehnt wurde, reicht daher als Antwort „Die Maschine hat so entschieden“ nicht aus. Grundsätzlich stellt sich auch die Haftungsfrage, wenn automatisierte Entscheidungen Menschen oder Gegenständen einen Schaden zufügen. In solchen Fällen ist es notwendig, dass KI-Systemen keine Rechtspersönlichkeit zugesprochen wird und die Hersteller haftbar bleiben. Der Grad an Autonomie von künstlicher Intelligenz ist prinzipiell durch den Verwendungszweck, die vom Entwickler definierten Grenzen, gesetzliche und betriebliche Anforderungen, physikalische Prozesse und technische Normen begrenzt. Insbesondere in physische Produkte eingebettete Funktionalität läuft nur im Rahmen von definierten Sicherheitskonzepten des Herstellers und vorgesehenen Produkteigenschaften. Im industriellen Umfeld spielen daher ethische Aspekte eher eine untergeordnete Rolle. Ein unkontrollierter Zustand einer Maschine, Drohne oder eines Roboters ist auch vom Hersteller nicht gewünscht, der die Kontrolle über sein Produkt bewahren möchte und haftbar ist. Ein Frankensteinsches Horrorszenario einer unzähmbaren verselbständigten Maschine scheint daher abwegig zu sein. Somit werden automatisch Grenzen gesetzt und gleichzeitig auch Freiräume für einen sinnvollen Umgang mit der Technologie geschaffen.

Gesetzlicher und ethischer Rahmen erforderlich

Ein gesetzlicher Rahmen sowie Normen und Standards müssen noch geschaffen werden. Die High Level Expert Group on AI der Europäischen Kommission will in 2019 eine europäische Strategie für KI erarbeiten und ethische Richtlinien zu den Themen Fairness, Sicherheit, Transparenz, Arbeitswelt der Zukunft und Demokratie vorschlagen. Wie ein Wertesystem für künstliche Intelligenz aussehen kann, damit beschäftigt sich die Open Community for Ethics in Autonomous and Intelligent Systems, die sich aus zahlreichen internationalen Verbänden und Standardisierungs-Organisationen zusammensetzt. Gemeinsam mit Experten aus Philosophie, Theologie, Psychologie und Soziologie soll ein Katalog an Anforderungen entstehen, die einer ethischen künstlichen Intelligenz beizubringen sind. In eine ähnliche Richtung zielt die Stellungnahme des Europäischen Wirtschafts- und Sozialausschusses (EWSA) im Mai 2017 zu den ‚Auswirkungen der künstlichen Intelligenz auf den (digitalen) Binnenmarkt sowie Produktion, Verbrauch, Beschäftigung und Gesellschaft‘. Darin fordert der Ausschuss explizit einen Verhaltenskodex für die Entwicklung, den Einsatz und die Nutzung von künstlicher Intelligenz. Einen solchen haben manche Unternehmen bereits definiert, setzen als Kontrollinstanz Ethikkommissionen aus externen Fachleuten ein und führen ethische Trainings für die mit dem Thema befassten Mitarbeiter durch. Dabei steht der ethisch verantwortungsvolle Umgang mit Daten im Mittelpunkt. Unter ethischem Gesichtspunkt ist die Auswirkung von KI-Systemen auf die Würde, Sicherheit, Selbständigkeit und Entscheidungsfreiheit der Menschen zu regeln. So kann eine KI-basierte Gesichtserkennung eine Bedrohung der fundamentalen Menschenrechte wie Privatsphäre und Meinungsfreiheit darstellen. Der Datenschutz ist hier besonders wichtig, erst recht vor dem Hintergrund, dass die Daten dazu verwendet werden könnten, Entscheidungen von Menschen zu beeinflussen oder deren Verhalten gar zu manipulieren, indem neue (Un-) Wahrheiten postuliert werden. Ausschlaggebend ist, dass die zugrunde liegenden Daten korrekt sind und keine Vorurteile und Präferenzen enthalten. Unter Sicherheitsaspekten müssen solche Systeme zuverlässig sein und in jeder Situation sicher funktionieren. Bedeutsam für die allgemeine Akzeptanz sind außerdem Transparenz und Nachvollziehbarkeit der Entscheidungen von KI-Systemen. Deren Funktionsweise, Handeln und Entscheidungen sollte jederzeit einsehbar und kontrollierbar sein. Die Systeme lernen auch im Betrieb dazu und nicht immer ist nachvollziehbar, wie ein bestimmtes Lernergebnis entstanden ist. Ist das Resultat einer Datenverarbeitung nicht mehr vorhersagbar, kann es sein, dass das Ergebnis einen Schaden bewirkt, gegen Gesetze oder den Datenschutz verstößt. Dazu kommen die Anforderungen nach Fairness und Diskriminierungsfreiheit von KI-Entscheidungen. Diese könnten beispielsweise Personen diskriminieren, ohne dass die Entwickler der Systeme dies beabsichtigt haben. Daher sollten präventive Risikobewertungen durchgeführt und eine ständige und umfassende Evaluierung von Algorithmik-basierten Anwendungen durch neutrale Dritte sichergestellt werden, ohne zugrunde liegende Codes und Algorithmen offenzulegen.

Fazit

Für den weiteren Erfolg von künstlicher Intelligenz sind ein gesetzlicher Rahmen und eine breite gesellschaftliche Akzeptanz Voraussetzung. Mehr Vertrauen könnte durch das Forschungsgebiet der interpretierbaren KI entstehen, das darauf hinarbeitet, dass die Entscheidungsgrundlage der künstlichen Intelligenz nachvollziehbar ist. Normen und Standards sollten künftig einen flexiblen Ordnungsrahmen festlegen, um KI-Systeme in Bezug auf Sicherheit, Transparenz, Verständlichkeit und ethische Vertretbarkeit zu überprüfen, validieren und zu kontrollieren. Damit Auswüchse wie die Beeinflussung der Wahlentscheidung über soziale Medien unterbunden werden und eine superintelligente Maschine gegebenenfalls deaktiviert werden kann. Möglichst bald sollten auf internationaler Ebene politische Leitprinzipien festgelegt werden als Grundlage für eine menschenkontrollierte künstliche Intelligenz, bei der die Menschen jederzeit die Kontrolle über Maschinen behalten.

Thematik: Allgemein
Ausgabe:
Silicon Software GmbH
www.silicon-software.de

Das könnte Sie auch Interessieren

Bild: Fraunhofer IEM
Bild: Fraunhofer IEM
Effiziente Produktionsplanung: KI reduziert Aufwand bei Schulte Kartonagen um 25%

Effiziente Produktionsplanung: KI reduziert Aufwand bei Schulte Kartonagen um 25%

Welcher Liefertermin steht wann an? Wie aufwändig muss die Maschine umgerüstet werden? Ist das benötigte Material bereits geliefert? Um die Reihenfolge verschiedener Kundenaufträge optimal zu planen, müssen Produktionsplaner:innen eine Vielzahl von Faktoren kennen und einschätzen. Bei Schulte Kartonagen hat ab sofort ein intelligenter KI-Assistent alle Faktoren im Blick – und macht Vorschläge für die effiziente Planung der Produktion. Gefördert wurde die Zusammenarbeit mit dem Fraunhofer IEM und den Universitäten Paderborn und Bielefeld im it’s OWL-Projekt ARISE.

Bild: schoesslers GmbH
Bild: schoesslers GmbH
appliedAI Institute for Europe launcht kostenlosen KI-Onlinekurs

appliedAI Institute for Europe launcht kostenlosen KI-Onlinekurs

Das gemeinnützige appliedAI Institute for Europe stellt den kostenfreien Online-Kurs ‚AI Essentials‘ zur Verfügung, der es Interessierten ermöglicht, in die Welt der Künstlichen Intelligenz einzusteigen. Konzepte wie maschinelles Lernen und Deep-Learning sowie deren Anwendungsmöglichkeiten und Auswirkungen auf unser Leben und unsere Wirtschaft sind Teile der umfassenden Einführung.

Bild: Trumpf SE + Co. KG
Bild: Trumpf SE + Co. KG
Künstliche Intelligenz macht Fabriken clever

Künstliche Intelligenz macht Fabriken clever

Seit dem Siegeszug des Chatbots ChatGPT ist künstliche Intelligenz in aller Munde. Auch in der industriellen Produktionstechnik kommt KI mit großen Schritten voran. Lernende Maschinen machen die Fertigung effizienter. Wie funktioniert das genau? Das können Interessierte auf der EMO Hannover 2023 vom 18. bis 23. September erfahren. Die Weltleitmesse für Produktionstechnologie wird ihr Fachpublikum unter dem Claim ‚Innovate Manufacturing‘. mit frischen Ideen inspirieren und künstliche Intelligenz spielt dabei ihre Stärken aus.

Bild: Mitsubishi Electric Corporation, Japan
Bild: Mitsubishi Electric Corporation, Japan
KI-gestütztes Analysetool für moderne Produktionslinien

KI-gestütztes Analysetool für moderne Produktionslinien

Das Data-Science-Tool Melsoft MaiLab von Mitsubishi soll Unternehmen bei der Digitalisierung ihrer Fertigung und unterstützen und so deren Produktivität steigern. Die neue Lösung ist eine intuitive, bedienerzentrierte Plattform, die KI nutzt, um Abläufe automatisch zu verbessern. Sei es Abfallvermeidung durch geringere Ausschussmengen, weniger Stillstandszeiten durch vorbeugende Wartung oder Senkung des Energieverbrauchs durch Prozessoptimierung.

Bild: Fraunhofer IGD
Bild: Fraunhofer IGD
Software Arrange beschleunigt Absortierprozesse

Software Arrange beschleunigt Absortierprozesse

In Kombination mit einer Augmented-Reality-Brille bietet eine neue Software des Fraunhofer IGD digitale Unterstützung von Absortiervorgängen. Zusammengehörige Bauteile werden direkt im Sichtfeld der Beschäftigten an der Produktionslinie farblich überlagert. Anwender im Automotive-Bereich können so etwa durch beschleunigte Prozesse und eine minimierte Fehleranfälligkeit Kosten reduzieren.