KI-Entscheidungen verstehen und validieren
Der nächste Gang zum Autonomen Fahren
KI-getriebene Convolutional Neuronal Networks in selbstfahrenden Autos sollen andere Verkehrsteilnehmer erkennen. Dabei gilt: Je selbstständiger das Auto, desto komplexer der Algorithmus und undurchschaubarer dessen Weg zur getroffenen Entscheidung. Ein Validierungs-Tool soll helfen, diesen besser zu verstehen.
Dieses Bild zeigt ein Beispiel für die grafische Darstellung der Gewichtung einer Schicht. Das Histogramm kann für jedes Layer visualisiert werden und gibt zusätzlich den Mittelwert sowie dessen Standardabweichung an.
Dieses Bild zeigt ein Beispiel für die grafische Darstellung der Gewichtung einer Schicht. Das Histogramm kann für jedes Layer visualisiert werden und gibt zusätzlich den Mittelwert sowie dessen Standardabweichung an.Bild: ARRK Engineering GmbH

Aktuelle Methoden zur Analyse und Validierung neuronaler Netzwerke entstammen vor allem der wissenschaftlichen Forschung. Branchenübliche Anforderungen an die funktionale Sicherheit werden dabei oftmals nicht berücksichtigt. So fordern etwa die ISO26262 und ISO/PAS21448 von den Automobilherstellern ein deutlich umfassenderes Wissen über die konkrete Funktionsweise und die Entscheidungspfade neuronaler Netzwerke, als dies im wissenschaftlichen Diskurs bisher besprochen wird. „Um Präzisionsprobleme bei der Objekterkennung durch Convolutional Neuronal Networks (CNN) besser zu verstehen, haben wir daher eine Software entwickelt, mit der eine standardisierte Validierung möglich ist“, berichtet Václav Diviš, Senior Engineer ADAS & Autonomous Driving bei ARRK Engineering. „Bei der Entwicklung dieses Visualisierungs-Tools legten wir die Grundlage einer neuen Bewertungsmethode: die sogenannte Neurons‘ Criticality Analysis (NCA).“ Aufgrund dieses Prinzips lässt sich eine zuverlässige Aussage darüber abgeben, wie wichtig oder schädlich einzelne Neuronen für eine korrekte Objekterkennung sind.

Komplexes Zusammenspiel

Das Zusammenspiel der einzelnen Neuronen in den zahlreichen Schichten eines CNN ist komplex. Jede Schicht und jedes Neuron übernehmen darin besondere Aufgaben bei der Erkennung eines Objekts – beispielsweise ein grobes Aussortieren nach Formen oder das Filtern bestimmter Farben. Jeder Arbeitsschritt trägt aber in unterschiedlichem Ausmaß zum Erfolg einer Objekterkennung bei und kann das Ergebnis sogar verschlechtern. Diese Komplexität führt dazu, dass die Wichtigkeit einzelner Neuronen für die Entscheidung bisher undurchschaubar war. Daher hat ARRK für sein neues Tool eine Grafik-Oberfläche zur Visualisierung dieser Pfade entwickelt. „Auf diese Weise lässt sich die Entscheidungsfindung eines CNN optisch darstellen“, so Diviš. „Außerdem kann die Relevanz bestimmter Schritte für die finale Entscheidung erhöht, verringert oder sogar ganz ausgeschaltet werden. In Echtzeit ermittelt das Tool nach jeder erfolgten Anpassung unmittelbar die Auswirkung dieser geänderten Parameter. Somit kann die Wichtigkeit bestimmter Neuronen und deren Aufgabe leichter erkannt und nachvollzogen werden.“ Das Streaming der Daten kann jederzeit pausiert werden, um eine Analyse vorzunehmen. Dabei können auch einzelne Elemente genauer untersucht werden.

Die interaktive und nutzerfreundliche Grafik-Oberfläche ist das Herzstück des Tools. Auf diese Weise lässt sich die Entscheidungsfindung eines CNN übersichtlich visualisieren. In Echtzeit ermittelt das Tool nach jeder Anpassung der Parameter deren Auswirkung auf das Endergebnis.
Die interaktive und nutzerfreundliche Grafik-Oberfläche ist das Herzstück des Tools. Auf diese Weise lässt sich die Entscheidungsfindung eines CNN übersichtlich visualisieren. In Echtzeit ermittelt das Tool nach jeder Anpassung der Parameter deren Auswirkung auf das Endergebnis.Bild: ARRK Engineering GmbH

Zugriff über OpenGL

Für dieses visuelle Backend wählte der Engineering-Dienstleister die plattformübergreifende Programmierschnittstelle OpenGL. Dadurch ist die Software auf jedem Gerät universell einsetzbar – sei dies PC, Handy oder Tablet. „Besonderen Wert haben wir außerdem auf die Optimierung der Berechnung und der folgenden grafischen Darstellung gelegt“, erläutert Diviš. „Daher wurden in unseren abschließenden Benchmark-Tests besonders die Framedrops überprüft. In diesem Rahmen konnten wir feststellen, dass selbst bei der Verarbeitung eines Videos und unter Verwendung einer Webcam die Framerate stabil bei rund fünf FPS lag – sogar bei der Visualisierung von 90 Prozent aller möglichen Feature-Maps, was in etwa 10.000 entspricht.“ Trotz der Vielzahl an grafischen Informationen und Daten sind somit keinerlei FPS-Einbrüche zu erwarten.

Neurons‘ Criticality Analysis

Beim Anlernen des CNN innerhalb des Visualisierungs-Tools werden die Deep-Learning-APIs TensorFlow und Keras als Grundlage verwendet, wodurch allgemeine Standards wie eine flexible Implementierung sämtlicher Klassen und Funktionen in Python bedient werden. Auch weitere externe Bibliotheken lassen sich anbinden. Sobald das neuronale Netzwerk ausreichend trainiert wurde, kann die Analyse der kritischen und antikritischen Neuronen beginnen – die Neurons‘ Criticality Analysis. „Dafür bieten wir als modifizierbare Parameter zusätzliches Bildrauschen (noise), das Hinzufügen oder Entfernen von Farbfiltern sowie die Maskierung bestimmter benutzerdefinierter Bereiche“, erläutert Diviš. „Eine Veränderung dieser Werte zeigt direkt, wie stark einzelne Neuronen die Entscheidung am Ende beeinflussen. Auch wird so deutlich, welche Stellen des neuronalen Netzwerkes möglicherweise den gesamten Erkennungsprozess stören.“

Seiten: 1 2Auf einer Seite lesen

ARRK Engineering GmbH
http://www.arrk-engineering.com

Anzeige

Anzeige

Das könnte Sie auch Interessieren

Bild: Arrow Central Europe GmbH
Bild: Arrow Central Europe GmbH
Guardian Technologies gewinnt Innovators Award von Arrow Electronics

Guardian Technologies gewinnt Innovators Award von Arrow Electronics

Das KI-Startup Guardian Technologies aus Wangen im Allgäu ist der diesjährige Gewinner des Innovator Awards von Arrow Electronics. An dem Wettbewerb haben mehr als 50 Technologie-Startups aus Deutschland, Österreich und der Schweiz teilgenommen. Zwölf Unternehmen sind in das Finale eingezogen. Das im Jahr 2020 gegründete Unternehmen Guardian Technologies ist ein Hersteller von kompakten, KI- und Kamera-basierten Systemen, die Brände schnell entdecken und löschen können.

Bild: Ametek GmbH - Creaform Deutschland GmbH
Bild: Ametek GmbH - Creaform Deutschland GmbH
Kostenfreies Webinar ‚Robot Vision‘

Kostenfreies Webinar ‚Robot Vision‘

Am Dienstag, den 28. September, findet ab 14 Uhr im Rahmen der inVISION TechTalks das kostenlose Webinar ‚Robot Vision‘ statt. In drei 20-minütigen Präsentationen stellen Wenglor, Vecow und Lucid Vision aktuelle Trends bei Software für die Roboterführung, KI-Plattformen für autonome geführte Robotik und Time-of-Flight-Kameras für Robotik und Automation vor.