Intellektuelle Fähigkeiten sind noch Zukunftsmusik
Viele KI-Enthusiasten hoffen auf den Tag – der allerdings noch 20 bis 40 Jahre entfernt sein dürfte – bis eine KI intellektuelle Fähigkeiten haben wird. Vielleicht gelingt es mit Quantencomputern sogar schon früher, noch größere Datenbestände auszuwerten und mit Hilfe von KNN sogar mit einer menschlichen und ethisch orientierten Entscheidungsmatrix zu ertüchtigen. Davon abgesehen, stellen sich aber bei den heutigen Anwendungen schon mit schwacher KI ethische Fragen. Was passiert, wenn eine KI durch Machine Learning diskriminierende Entscheidungen fällt? Heute schon sind erste Lösungen für das Bewerbermanagement bei Recruiting-Prozessen im Einsatz. Bei amerikanischen global agierenden Unternehmen soll es bereits vorgekommen sein, dass Frauen bei der Vorauswahl benachteiligt wurden. Auch bei Finanzdienstleistern sind KIs im Einsatz, sogar schon länger, als es Chatbots gibt. Mit der ‚falschen Adresse‘ oder einem Schufa-Eintrag kann es schon länger passieren, dass eine Versicherung oder ein Kredit verweigert werden. Und wie soll sich ein autonomer und KI-basierter Roboter in einer Smart Factory verhalten, wenn er vor zwei gleich schlechte Alternativen gestellt in beiden Fällen einen menschlichen Kollegen verletzen würde? Mit solchen Fragen beschäftigte sich kürzlich ein Expertengremium der EU, das Ende 2018 seine ethischen Leitlinien zur Diskussion stellte und im April seine finale Version veröffentlichte. Bis Juni 2019 erarbeitete das Gremium eine Handlungsempfehlung für die EU. Nach allem, was bisher bekannt ist, greifen diese Leitlinien aber nicht weit genug. Sie beschreiben einen Weg, „den größtmöglichen Nutzen aus der KI erzielen und gleichzeitig die geringstmöglichen Risiken eingehen. Um sicherzugehen, dass wir auf dem richtigen Weg bleiben, brauchen wir einen auf den Menschen ausgerichteten (‚menschenzentrierten‘) Ansatz für die KI“. Das Gremium hat auch eine Checkliste mit Fragen für Anbieter von KI entwickelt, wie sie ihre Systeme sicher betreiben können. Leider aber fehlen Empfehlungen an die EU-Kommission, welche Mindestanforderungen und Sicherheitsauflagen sie den KI-Betreibern auferlegen sollten, damit der Mensch als Gestalter und Nutznießer der digitalen Transformation wirklich im Fokus bleibt. Denn eines ist klar: Eine wirtschaftlich oder aus Sicht von Behörden erfolgreiche KI werden Betreiber nicht ändern, nur weil sie ein wenig diskriminierend agiert.
Der Mensch muss am längeren Hebel sitzen
Hier müssen die EU und internationale Institutionen wie die UN klare Regeln aufstellen und anordnen, dass externe Institutionen die Einhaltung regelmäßig überprüfen dürfen. Eine notwendige Regel wäre z.B., dass immer dann, wenn eine KI mit einem Menschen interagiert, diese als solche ausgewiesen wird und der menschliche Kollege z.B. durch Notausschalter immer am längeren Hebel sitzt. Oder im Falle, dass eine KI Entscheidungsbefugnisse erhält, muss der Mensch das Recht erhalten, eine natürliche Person wie z.B. den Betriebsrat oder eine andere verantwortliche Stelle im Unternehmen mit der Überprüfung einer KI-Entscheidung zu beauftragen. Darüber hinaus müssen die Betreiber bei einer KI mit Machine Learning verpflichtet sein, ihre sich selbständig umschreibenden Algorithmen durch Testläufe zu überwachen. Bei einem KI-basierten Roboter sollten die Unternehmen schon aus Gründen der Betriebssicherheit ihren Algorithmen regelmäßig einer Prüfung unterziehen. Und weil es Menschen sind, die KI-Algorithmen schreiben, sollten diese durch Weiterbildung ihre Kompetenzen als Fachleute regelmäßig vertiefen müssen.
Eigener Ethikrat
Denkbar wäre auch, wenn große Unternehmen einen eigenen Ethikrat mit externen Experten gründen, der die Weiterentwicklung der Anwendungen überwacht. Auch und vor allem beim KI-Einsatz staatlicher Stellen sind Sicherheitslinien einzubeziehen, die nicht überschritten werden dürfen. So sehr sich auch Verwaltungshandeln künftig mittels KI vereinfachen lassen dürfte, müssen staatliche Stellen ein enges Korsett erhalten, um Freiheitsrechte der Bürger nicht schleichend einzuschränken.