Der Branchenverband Bitkom hat zur diesjährigen Hannover Messe 555 Unternehmen mit über 100 Mitarbeitern befragt und festgestellt, dass bisher nur zwölf Prozent der deutschen Industrieunternehmen bereits heute Künstliche Intelligenz (KI) im Zusammenhang mit Industrie 4.0 nutzen. Die Erwartungen an KI sind aber so groß, dass der Einsatz nun wohl exponentiell zunehmen dürfte. Vor allem erwarten die Industrieunternehmen, ihre Produktivität zu steigern, Vorausschauende Wartung und Instandhaltung zu verbessern sowie eine Optimierung ihrer Produktions- und Fertigungsprozesse. Die Befragten gaben zudem an, dass sie 2019 rund fünf Prozent ihres Umsatzes in die Digitalisierung investieren wollen. Die Hoffnungen richten sich auf die Realisierung von Smart Factories, in denen autonome Roboter mit Menschen zusammenarbeiten, dabei niemals müde werden und sogar die Fehler ihrer menschlichen Kollegen rechtzeitig erkennen und für Korrekturen sorgen. Wie im Auto von morgen soll KI in Robotern zusammen mit einer Unzahl von Sensorgen und Aktoren für eine autonome Aktion und Interaktion zwischen Maschinen und zwischen Menschen und Maschinen sorgen. Um dieses Ziel zu erreichen, müssen solche Systeme in Echtzeit große Datenmengen verarbeiten, Muster erkennen, Handlungsoptionen ableiten und umsetzen. Sie müssen also ähnlich wie KI heute schon in Wissenschaft, Medizin, Marketing und selbst für Juristen, zu vorgegebenen oder vorgefundenen oder gerade entstehenden Problemen Lösungen finden. Aber ist das, was in einer Smart Factory mit autonomen und KI-basierten Robotern heute bereits möglich ist, schon künstliche Intelligenz? Oder führt der Begriff in die Irre, wenn lediglich große Datenmengen mit immer leistungsfähigeren Rechnern ausgewertet werden?
Was ist künstliche Intelligenz?
Künstliche Intelligenz orientiert sich am menschlichen Intelligenzbegriff und versucht, die Erkenntnis- und Entscheidungsfähigkeit des Menschen zu imitieren. Schon heute gelingt es zumindest, KI-Systeme intelligent erscheinen zu lassen. Sie sind in der Lage, große Datenmengen in kurzer Zeit mit von Menschen geschriebenen Algorithmen auf Muster hin zu analysieren. Algorithmen kommt hierbei eine Schlüsselfunktion zu. Darin sind Anweisungen definiert, um ein Problem systematisch zu lösen. Wie ein Bauplan oder eine Gebrauchsanweisung verfolgt der Algorithmus diesen einen und vorgegebenen Weg und führt zu einem eindeutigen Ergebnis. Um die Leistungsfähigkeit von KI zu steigern, entwickelten Neurowissenschaftler und Informatiker künstliche Neuronale Netze (KNN), die sich am biologischen Vorbild der Vernetzung von Neuronen im Gehirn orientieren. KNN sind in der Lage, sich jederzeit durch neue Informationen, die sie bei Lernprozessen ähnlich wie das Gehirn verarbeiten, neu zu vernetzen oder alte Verbindungen höher oder geringer zu gewichten oder vollständig aufzulösen. Durch die KNN sind auch KI-Algorithmen heute fähig, bei ihrer Anwendung zu ‚lernen‘ – sie können sich also selbständig weiterentwickeln. Dieser Prozess wird als Machine oder Deep Learning bezeichnet. Was der Mensch als Erkenntnis speichert, jederzeit erinnern und wieder anwenden kann, bedeutet bei den Maschinen, dass sie ihren Algorithmus ‚umschreiben‘, um die ihnen gestellten Aufgaben immer besser lösen zu können.
KI macht das, was man ihr sagt
Die aktuell verfügbaren KI-Anwendungen sind trotz Machine Learning zum Glück noch nicht in der Lage, ihren durch den Algorithmus vorgegebenen Weg zu verlassen. Eine KI, die Experten für die Tätigkeit eines Roboters in einer Fertigungslinie programmiert haben, ist nicht in der Lage, in einer anderen Umegbung zu arbeiten. Wissenschaftler bezeichnen diese als schwache KIs – und träumen von starken KIs. Noch ist es nicht gelungen, eine KI zu programmieren, die die intellektuellen Fähigkeiten des Menschen auch nur annähernd simulieren kann. Eine starke KI müsste in der Lage sein, logisch zu denken, Entscheidungen auch tatsächlich wie ein Mensch zu fällen, also abzuwägen z.B. zwischen zwei gleich schlechten Alternativen. Sie müsste sich planvoll neue Wissensgebiete erschließen und sich systematisch selbst anlernen. Vor allem aber müsste sie in natürlicher Sprache selbständig Ideen formulieren können und alle ihre Kompetenzen auch in ein Wertesystem einordnen und einem höheren oder ferneren Ziel unterordnen können. Kurzum: Sie müsste nach ethischen, moralischen und sozialen Kategorien ihr Verhalten und ihre Entscheidungen verantwortungsvoll selbst steuern. Das bedeutet: Ohne den Faktor Mensch wird es bei aller Dynamik der technologischen Entwicklung in der digitalen Transformation auf absehbare Zeit nicht gehen.
Intellektuelle Fähigkeiten sind noch Zukunftsmusik
Viele KI-Enthusiasten hoffen auf den Tag – der allerdings noch 20 bis 40 Jahre entfernt sein dürfte – bis eine KI intellektuelle Fähigkeiten haben wird. Vielleicht gelingt es mit Quantencomputern sogar schon früher, noch größere Datenbestände auszuwerten und mit Hilfe von KNN sogar mit einer menschlichen und ethisch orientierten Entscheidungsmatrix zu ertüchtigen. Davon abgesehen, stellen sich aber bei den heutigen Anwendungen schon mit schwacher KI ethische Fragen. Was passiert, wenn eine KI durch Machine Learning diskriminierende Entscheidungen fällt? Heute schon sind erste Lösungen für das Bewerbermanagement bei Recruiting-Prozessen im Einsatz. Bei amerikanischen global agierenden Unternehmen soll es bereits vorgekommen sein, dass Frauen bei der Vorauswahl benachteiligt wurden. Auch bei Finanzdienstleistern sind KIs im Einsatz, sogar schon länger, als es Chatbots gibt. Mit der ‚falschen Adresse‘ oder einem Schufa-Eintrag kann es schon länger passieren, dass eine Versicherung oder ein Kredit verweigert werden. Und wie soll sich ein autonomer und KI-basierter Roboter in einer Smart Factory verhalten, wenn er vor zwei gleich schlechte Alternativen gestellt in beiden Fällen einen menschlichen Kollegen verletzen würde? Mit solchen Fragen beschäftigte sich kürzlich ein Expertengremium der EU, das Ende 2018 seine ethischen Leitlinien zur Diskussion stellte und im April seine finale Version veröffentlichte. Bis Juni 2019 erarbeitete das Gremium eine Handlungsempfehlung für die EU. Nach allem, was bisher bekannt ist, greifen diese Leitlinien aber nicht weit genug. Sie beschreiben einen Weg, „den größtmöglichen Nutzen aus der KI erzielen und gleichzeitig die geringstmöglichen Risiken eingehen. Um sicherzugehen, dass wir auf dem richtigen Weg bleiben, brauchen wir einen auf den Menschen ausgerichteten (‚menschenzentrierten‘) Ansatz für die KI“. Das Gremium hat auch eine Checkliste mit Fragen für Anbieter von KI entwickelt, wie sie ihre Systeme sicher betreiben können. Leider aber fehlen Empfehlungen an die EU-Kommission, welche Mindestanforderungen und Sicherheitsauflagen sie den KI-Betreibern auferlegen sollten, damit der Mensch als Gestalter und Nutznießer der digitalen Transformation wirklich im Fokus bleibt. Denn eines ist klar: Eine wirtschaftlich oder aus Sicht von Behörden erfolgreiche KI werden Betreiber nicht ändern, nur weil sie ein wenig diskriminierend agiert.
Der Mensch muss am längeren Hebel sitzen
Hier müssen die EU und internationale Institutionen wie die UN klare Regeln aufstellen und anordnen, dass externe Institutionen die Einhaltung regelmäßig überprüfen dürfen. Eine notwendige Regel wäre z.B., dass immer dann, wenn eine KI mit einem Menschen interagiert, diese als solche ausgewiesen wird und der menschliche Kollege z.B. durch Notausschalter immer am längeren Hebel sitzt. Oder im Falle, dass eine KI Entscheidungsbefugnisse erhält, muss der Mensch das Recht erhalten, eine natürliche Person wie z.B. den Betriebsrat oder eine andere verantwortliche Stelle im Unternehmen mit der Überprüfung einer KI-Entscheidung zu beauftragen. Darüber hinaus müssen die Betreiber bei einer KI mit Machine Learning verpflichtet sein, ihre sich selbständig umschreibenden Algorithmen durch Testläufe zu überwachen. Bei einem KI-basierten Roboter sollten die Unternehmen schon aus Gründen der Betriebssicherheit ihren Algorithmen regelmäßig einer Prüfung unterziehen. Und weil es Menschen sind, die KI-Algorithmen schreiben, sollten diese durch Weiterbildung ihre Kompetenzen als Fachleute regelmäßig vertiefen müssen.
Eigener Ethikrat
Denkbar wäre auch, wenn große Unternehmen einen eigenen Ethikrat mit externen Experten gründen, der die Weiterentwicklung der Anwendungen überwacht. Auch und vor allem beim KI-Einsatz staatlicher Stellen sind Sicherheitslinien einzubeziehen, die nicht überschritten werden dürfen. So sehr sich auch Verwaltungshandeln künftig mittels KI vereinfachen lassen dürfte, müssen staatliche Stellen ein enges Korsett erhalten, um Freiheitsrechte der Bürger nicht schleichend einzuschränken.
Starkes Werkzeug
Welchen Weg die künstliche Intelligenz noch gehen wird, können momentan selbst Experten kaum einschätzen. Klar ist, dass sie ein starkes Werkzeug in der Hand von Staat und Unternehmen, aber auch künftig von Nicht-Regierungsorganisationen und der Zivilgesellschaft ist und nicht zuletzt von Kriminellen sein kann. Wie früher bei der Dampfmaschine können verheerende Unfälle passieren, wenn zu viel Druck auf dem Kessel ist. Erst die regelmäßige Überprüfung durch unabhängige Fachkräfte hat dazu geführt, dass technische Großanlagen, Fahrzeuge und Aufzüge bis hin zu Kraftwerken zu sicheren Einrichtungen wurden. Ohne Überwachung durch unabhängige Dritte und lebenslange Weiterqualifizierung der menschlichen Fachkräfte wird es auch beim Einsatz von KI kaum gehen.