Der ’schlauere‘ Klaus
Fehler per Self-Organizing Maps erkennen, ohne sie zu lernen
Durch den Einsatz von Self-Organizing Maps (SOMs), einer Art von neuronaler Netze, haben Industrial Analytics Labs und Optimum eine neue Methode entwickelt, um Fehlerzustände zu erkennen, ohne diese vorher gesehen zu haben.
Bild 1 | Normiertes Histogramm der SOM-Distanzen für ein Trainings-Sample von 100 Bildern einer handgewickelten Ringspule. Die SOM wurde dann auf ein Bild angewandt, bei dem die Ringspule eine Wicklung zu wenig aufweist. Diese Abweichung wurde mit einem Distanzmaß von 32,6 nur knapp außerhalb des 3 Konfidenz-Intervalls als fehlerhaft erkannt.
Bild 1 | Normiertes Histogramm der SOM-Distanzen für ein Trainings-Sample von 100 Bildern einer handgewickelten Ringspule. Die SOM wurde dann auf ein Bild angewandt, bei dem die Ringspule eine Wicklung zu wenig aufweist. Diese Abweichung wurde mit einem Distanzmaß von 32,6 nur knapp außerhalb des 3 Konfidenz-Intervalls als fehlerhaft erkannt.Bild: Industrial Analytics Lab GmbH

Ob bei Automotive-Zulieferern, Elektronik-Herstellern oder Anbietern von Haushaltsgeräten; wo immer einzelne Komponenten manuell montiert werden, geschehen Fehler. Um diese sicher zu erkennen, analysiert das intelligente Kamerasystem Schlauer Klaus von Optimum ein hochauflösendes Bild jedes fertig montierten Stücks und gleicht dieses mit Bildern von Gut- und Schlecht-Zuständen ab. „In den letzten Jahren haben wir aber immer wieder erkannt, dass die Notwendigkeit zum Einlernen von Schlecht-Bildern den Einsatz von kognitiven Assistenten wie unserem Schlauen Klaus massiv behindert. Wir wollen eine Lösung schaffen, die es unseren Kunden ermöglicht, ausschließlich mit Bildern des regulär laufenden Prozesses zu starten und trotzdem Abweichungen von der Norm erkennen zu können“, beschreibt Optimum-Geschäftsführer Wolfgang Mahanty die Motivation, sein System noch schlauer zu machen. Unterstützung bei der Entwicklung fand Optimum bei Industrial Analytics Lab, die auf die Implementierung von KI-gestützten Automationslösungen im Mittelstand spezialisiert sind. Gemeinsam wurden eine Algorithmik entwickelt, um Fehlerzustände zu erkennen, ohne diese vorher gesehen zu haben.

Bild 2 | Normiertes Histogramm der gefundenen SOM-Distanzen für ein Trainings-Sample von 100 Bildern eines Kondensators. Die trainierte SOM wurde auf drei weitere Bilder angewandt, bei denen der Kondensator fehlte. Diese wurden mit Distanzmaßen außerhalb des 3 Konfidenz-Intervalls (entspricht einer Bestimmtheit größer 99,7%) klar als fehlerhaft erkannt.
Bild 2 | Normiertes Histogramm der gefundenen SOM-Distanzen für ein Trainings-Sample von 100 Bildern eines Kondensators. Die trainierte SOM wurde auf drei weitere Bilder angewandt, bei denen der Kondensator fehlte. Diese wurden mit Distanzmaßen außerhalb des 3 Konfidenz-Intervalls (entspricht einer Bestimmtheit größer 99,7%) klar als fehlerhaft erkannt.Bild: Industrial Analytics Lab GmbH

Self-Organizing Maps (SOMs)

Möglich wird dies durch den Einsatz von Self-Organizing Maps (SOMs). Diese Neuronalen Netze gehören zu den unsupervised-learning Methoden, d.h. eine Klassifikation von Bilddaten wird ohne a priori Wissen ausschließlich basierend auf algorithmisch identifizierter Ähnlichkeit der Bilder durchgeführt. Dies ermöglicht Klassifikationsaufgaben ohne vorherige Kenntnis der Anzahl und Art der zu bildenden Klassen. Befinden sich in einem Satz Bilddaten etwa Bilder von Hunden, Katzen und Mäusen, so wird die SOM eine Gliederung ganz von selbst herausbilden. Kommt z.B. die Fotografie eines Vogels hinzu, wird diese in keine der drei Teile der Karte einsortiert werden können und entsprechend als Ausreißer hervortreten. Mittels SOMs kann sogar ein Bestimmtheitsmaß für die erfolgte Klassifikation ermittelt werden, da der Abstand in der Karte ein direktes Maß für die Ähnlichkeit darstellt. Mit der Implementierung des SOM-Ansatzes, der bereits viele Anwendungsfälle von Optimum beinhaltet, gelingt diese Outlier-Detektion für nahezu alle getesteten Fälle.

Beim IAL wurde der SOM-Ansatz mittlerweile an echten Trainingsfällen von Optimum erprobt, so etwa bei der manuellen Endbestückung von Elektronik-Platinen. Hier werden einige Teile händisch aufgebracht, die zu massiv für den Bestückungsautomaten sind. Sehr selten kommt es dabei vor, dass ein solches Bauteil wie eine Spule oder ein Kondensator vergessen wird. Um diesen Fall ausschließlich mit Bildern von korrekt bestückten Platinen abzudecken, genügen in Zukunft die ersten 100 Gut-Bilder zum Anlernen der SOM. Sie erhält damit Kenntnis über die prozess-intrinsische Varianz, die als normal zu erachten ist, und quantifiziert diese in einem mittleren Abstand der einzelnen Bauteile zueinander. Tritt nun der Fall ein, dass etwa ein Kondensator vergessen wurde, so erkennt die SOM den Unterschied des einen Bildes zu allen bisherigen und platziert es daher in großem Abstand zu den anderen. Anhand des Abstandes kann so quantifiziert werden, wie ähnlich ein einzelnes Bild zu den bisherigen ist.

Parallelen zum menschlichen Sehen

Bilder, die für das menschliche Auge einfach unterscheidbar sind, werden auch durch die SOM gut getrennt und umgekehrt. Durch dieses natürliche Lernen wird die Handhabung des Verfahrens erleichtert, da die Klassifikationsgüte mit dem menschlichen Empfinden der Schwierigkeit des Problems korreliert. Bild 1 zeigt eine SOM, die für die Bewertung einer Ringspule auf einer Platine antrainiert wurde. Das injizierte Fehler-Bild, bei dem die Ringspule eine Wicklung zu wenig aufweist, ist für den Menschen nur schwer von einem Gut-Bild zu unterscheiden. Entsprechend schlechtere Resultate liefert hier auch die SOM, die das injizierte Fehler-Bild lediglich ganz knapp außerhalb des angestrebten 3 Konfidenzintervalls zeigt. Mit diesen Labor-Resultaten können Optimum und IAL zeigen, dass SOMs in der Lage sind, auch kleine Abweichungen in einer Reihe von Bilddaten sicher zu klassifizieren. Die Tatsache, dass SOMs dabei (a) keine Vorgaben hinsichtlich der Art oder Anzahl von Klassen benötigen und (b) die intrinsische Möglichkeit der Angabe eines Bestimmtheitsmaßes für die erfolgte Klassifikation liefern, macht sie überlegen gegenüber supervised-learning KI-Methoden. Der SOM-Einsatz wird nun bei ausgewählten Pilot-Kunden von Optimum im regulären MontageAblauf erprobt werden.

Industrial Analytics Lab GmbH
http://www.ial.ruhr

Anzeige

Anzeige

Das könnte Sie auch Interessieren

Bild: Fraunhofer IOSB-INA
Bild: Fraunhofer IOSB-INA
Fraunhofer entwickelt Lösungen für Einsatz künstlicher Intelligenz in industrieller Produktion

Fraunhofer entwickelt Lösungen für Einsatz künstlicher Intelligenz in industrieller Produktion

Wie macht die intelligente Nutzung von Daten Fabriken fit für die Zukunft? Im Projekt ‚Datenfabrik.NRW‘ erarbeiten vier Fraunhofer-Institute (Entwurfstechnik Mechatronik IEM, Materialfluss und Logistik IML, Optronik, Systemtechnik und Bildauswertung IOSB und Intelligente Analyse- und Informationssysteme IAIS) konkrete Anwendungen für den vielfältigen Einsatz von künstlicher Intelligenz in der Produktion und setzen diese in realen Produktionsumgebungen bei Claas und Schmitz Cargobull um. Das Land Nordrhein-Westfalen fördert das Zukunftsprojekt mit 9,2Mio.€. Die Kompetenzplattform KI.NRW nimmt die Datenfabrik.NRW als KI-Flagshipprojekt in ihr Netzwerk auf.

Bild: Arrow Central Europe GmbH
Bild: Arrow Central Europe GmbH
Guardian Technologies gewinnt Innovators Award von Arrow Electronics

Guardian Technologies gewinnt Innovators Award von Arrow Electronics

Das KI-Startup Guardian Technologies aus Wangen im Allgäu ist der diesjährige Gewinner des Innovator Awards von Arrow Electronics. An dem Wettbewerb haben mehr als 50 Technologie-Startups aus Deutschland, Österreich und der Schweiz teilgenommen. Zwölf Unternehmen sind in das Finale eingezogen. Das im Jahr 2020 gegründete Unternehmen Guardian Technologies ist ein Hersteller von kompakten, KI- und Kamera-basierten Systemen, die Brände schnell entdecken und löschen können.

Bild: Ametek GmbH - Creaform Deutschland GmbH
Bild: Ametek GmbH - Creaform Deutschland GmbH
Kostenfreies Webinar ‚Robot Vision‘

Kostenfreies Webinar ‚Robot Vision‘

Am Dienstag, den 28. September, findet ab 14 Uhr im Rahmen der inVISION TechTalks das kostenlose Webinar ‚Robot Vision‘ statt. In drei 20-minütigen Präsentationen stellen Wenglor, Vecow und Lucid Vision aktuelle Trends bei Software für die Roboterführung, KI-Plattformen für autonome geführte Robotik und Time-of-Flight-Kameras für Robotik und Automation vor.