Studie zu Explainable Artificial Intelligence
Künstliche Intelligenz erklärbar machen
Künstliche Intelligenz hat meistens Black-Box-Charakter. Doch nur Transparenz kann Vertrauen schaffen. Um die jeweiligen Lösungswege künstlicher Intelligenz zu erklären, gibt es spezielle Software-Lösungen. Eine Studie des Fraunhofer IPA hat die unterschiedlichen Methoden verglichen und bewertet.
Bild: ©wacomka/stock.adobe.com

Insbesondere bei kritischen Anwendungen wollen Nutzer verstehen, wie eine von künstlicher Intelligenz getroffenen Entscheidung zustande kommt. Nur so sind Verbesserungen möglich, die zunehmend auch die Sicherheit betreffen. Zudem schreibt die europäische Datenschutzgrundverordnung vor, Entscheidungen nachvollziehbar zu machen.

Neun Verfahren verglichen

Rund um dieses Problem ist ein ganzes Forschungsfeld entstanden: die ’Explainable Artificial Intelligence’ (xAI), die erklärbare künstliche Intelligenz. Auf dem Markt gibt es unterschiedliche digitale Hilfen, die komplexe KI-Lösungswege erklärbar machen sollen. Experten des Fraunhofer-Instituts für Produktionstechnik und Automatisierung IPA haben neun Erklärungsverfahren – wie LIME, SHAP oder Layer-Wise Relevance Propagation – miteinander verglichen und mithilfe von beispielhaften Anwendungen bewertet. Dabei zählten vor allem drei Kriterien:

Stabilität: Bei gleicher Aufgabenstellung soll das Programm stets dieselbe Erklärung liefern. Es darf nicht sein, dass für eine Anomalie in der Produktionsmaschine einmal Sensor A und dann Sensor B verantwortlich gemacht wird. Das würde das Vertrauen in den Algorithmus zerstören und das Ableiten von Handlungsoptionen erschweren.

Konsistenz: Gleichzeitig sollten nur geringfügig unterschiedliche Eingabedaten auch ähnliche Erklärungen erhalten.

Wiedergabetreue: Wichtig ist auch, dass Erklärungen tatsächlich das Verhalten des KI-Modells abbilden. Es darf beispielsweise nicht passieren, dass die Erklärung für die Verweigerung eines Bankkredits ein zu hohes Alter des Kunden benennt, obwohl eigentlich das zu geringe Einkommen ausschlaggebend war.

Die perfekte Methode gibt es nicht

Laut Studie haben sich alle untersuchten Erklärungsmethoden sich als brauchbar erwiesen. „Doch es gibt nicht die eine perfekte Methode“, sagt Nina Schaaf, die beim Fraunhofer IPA für die Studie verantwortlich ist. Große Unterschiede gibt es beispielsweise bei der Laufzeit, die ein Verfahren benötigt, so die Studienautoren. Die Auswahl der besten Software ist zudem maßgeblich von der jeweiligen Aufgabenstellung abhängig. So sind laut Untersuchung etwa Layer-Wise Relevance Propagation und Integrated Gradients für Bilddaten besonders gut geeignet. „Und schließlich ist immer auch die Zielgruppe einer Erklärung wichtig: Ein KI-Entwickler möchte und sollte eine Erklärung anders dargestellt bekommen als der Produktionsleiter, denn beide ziehen jeweils andere Schlüsse aus den Erklärungen“, resümiert Schaaf.

Fraunhofer - Institut IPA
www.ki-fortschrittszentrum.de

Anzeige

Anzeige

Das könnte Sie auch Interessieren

Bild: Abat AG
Bild: Abat AG
Forschungskooperation verlängert

Forschungskooperation verlängert

Bild: Abat AG Voneinander und miteinander lernen, gemeinsam an innovativen Ideen für den Markt innerhalb von Forschungskooperationen tätig sein - seit mehreren Jahren schon besteht eine enge Zusammenarbeit zwischen der Bremer Abat AG und der Uni Oldenburg (Abteilung...

Image: Xilinx Inc.
Image: Xilinx Inc.
Adaptive AI Vision

Adaptive AI Vision

Image: Xilinx Inc. Die Kria SOMs ermöglichen den schnellen Einsatz durch Bereitstellung einer End-to-End Lösung auf Board-Ebene mit vorkonfiguriertem Software Stack. Das Kria K26 SOM basiert auf der Zynq UltraScale+ MPSoC Architektur, die einen Quad-Core Arm Cortex...