Embedded-AI-Kameras

Neue Bedienkonzepte für Deep Learning auf Smart-Kameras
Für Embedded-AI-Kameras, also Kameras die es ermöglichen neuronale Netze direkt auf Smart Kameras auszuführen, gibt es mittlerweile unterschiedliche Bedienkonzepte, die zum Training der neuronalen Netze angeboten werden.

Das Inspektionssystem Gixel AI beinhaltet ist in der Lage, innerhalb weniger Minuten aus einer kleinen Anzahl an Beispielen eine Genauigkeit auf Produktionsniveau zu erreichen. Bild: Gixel GmbH

Hersteller, wie z.B. Flir, IDS, NET oder Basler haben seit kurzem einen neuen Kameratyp im Programm, der es ermöglicht, neuronale Netze direkt auf einer intelligenten Kamera auszuführen. Damit das neuronale Netz trainiert werden kann, ist ein Datensatz nötig. Das Bildverarbeitungssystem hingegen wird klassisch programmiert. Dieser Übergang vom Programmieren zum Lernen stellt den Anwender aber bei der Bedienung vor neue Herausforderungen. Wie umfangreich muss der Datensatz sein, damit die relevanten Informationen enthalten sind? Was ist zu tun, wenn 2% Fehlklassifikation noch (viel) zu hoch sind? Wie kann ich die Robustheit erhöhen, damit das System auch bei Störeinflüssen bei voller Leistungsfähigkeit funktioniert? Wie kann auf geänderte Aufgabenstellungen flexibel reagiert werden? Nicht alle, am Markt verfügbaren Konzepte geben darauf eine Antwort und bieten umsetzbare Lösungen zu diesen Fragen.

Machine Vision as a Service

Folgende Konzepte, bzw. Lösungsvarianten werden derzeit angeboten:

a) Bildverarbeitungsbibliothek mit Deep-Learning-Funktionalität
b) Cloud Workflow: Daten hoch- und neuronales Netz herunterladen
c) Dienstleistung durch externe Experten
d) Machine Vision as a Service

Technisch betrachtet ist der Cloud Workflow die online Version der Bildverarbeitungsbibliothek mit Deep-Learning-Funktionalität. Ziel ist es hier, einem unerfahrenen Nutzer die Möglichkeit zu geben, mit möglichst wenigen Bilddaten ein neuronales Netz zu trainieren. Weil aber in einem kleinen Datensatz nicht alle notwendigen Informationen enthalten sind, wird mit einem technischen Trick gearbeitet, dem sogenannten Transfer Learning. Hierbei wird ein vorhandenes neuronales Netz auf eine neue Aufgabenstellung transferiert. Dazu wird typischer Weise lediglich die letzte vollvernetzte Schicht neu gelernt. Dafür sind nur wenige Minuten Trainingszeit notwendig und Datensätzen mit nur 100 Bildern können ausreichend sein. Nachteilig ist die erzielbaren Klassifikationsleistungen. Zum einen stehen dem Training aufgrund des kleinen Datenumfangs nur wenige Informationen zur Verfügung, zum anderen sind die ersten Schichten des neuronalen Netzes, die für die Informationsextraktion zuständig sind, nicht auf die neue Aufgabenstellung optimiert. Interessanter Weise stellen die Hersteller von Embedded-AI-Kameras einen entsprechenden Workflow zur Verfügung, teilweise auch als Cloudlösung, was aber die angesprochenen Probleme nicht löst.

Möchte man die Klassifikationsgüte oder Robustheit weiter steigern, lohnt es sich auf Expertenwissen zurück zu greifen. Technisch ist es das Ziel, ein neuronales Netz von Grund auf neu zu lernen. Wird dazu ein externer Dienstleister beauftragt, ist man im Projektgeschäft mit all seinen Vor- und Nachteilen (Reaktionszeit auf Änderungen, Mehrkosten…) konfrontiert. Das Fraunhofer Spin-Off Gixel bietet dagegen mit Machine Vision as a Service eine Alternative. Hierbei werden nicht nur die Daten in eine Cloud geladen, sondern die Embedded-Kamera selbst ist mit der Cloud verbunden. Dadurch wird auch die Erstellung des Datensatzes als Dienstleistung übernommen und entsprechend große Datensätze aufgebaut. Die externe Dienstleistung ist somit in einem Standardprodukt gekapselt und kann on Demand genutzt werden. Das Inspektionssystem Gixel AI besteht aus einem vorkonfiguriertem IPC optimiert für die Inferenz komplexer neuronaler Netze. Dieser wird vorkonfiguriert mit Touchscreen geliefert und lernt in wenigen Minuten die Klassifikationsaufgaben ein. Das Gixel AI Team übernimmt den weiteren Lernvorgang über das Internet. Während dem Einlernen vergehen typischer Weise vier Sekunden zwischen Bildaufnahme und Klassifikationsergebnis. Danach liegt die Klassifikationsgüte meist bereits auf Produktionsniveau. Ist der Lernvorgang abgeschlossen, kann die Verbindung zum Internet getrennt werden. Nachlernen durch erneute Anbindung an den Server ist jederzeit möglich.

Gixel AI kann entweder als Komplettlösung mit einem vorkonfigurierten IPC genutzt werden oder mit einer Embedded-AI-Kamera, welche temporär zum Einlernen mittels einer zusätzlichen Hardware mit der Gixel-Cloud verbunden wird. Als Alleinstellungsmerkmal steht das System bereits während der Einlernphase produktiv zur Verfügung. Dazu wird das Prüfergebnis während dem Einlernen in Echtzeit mit einer typischen Latenz von vier Sekunden in der Cloud berechnet. Der Anwender muss für Änderungen oder Neuerstellung einer Prüfaufgabe nur wenige Minuten lang Beispielbilder klassifizieren. Ist der Datensatz für die Aufgabenstellung ausreichend groß, wird das trainierte Neuronale Netz auf die Embedded-AI-Kamera geladen. Nun sind herstellerabhängig sehr hohe Frame-Raten möglich und eine Internetverbindung nicht mehr notwendig.

Fazit

Deep Learning ermöglicht bessere Bildverarbeitung und weniger Fehlklassifikationen, aber die Bedienbarkeit wurde bisher in der Praxis nicht gelöst. Machine Vision as a Service bietet hier einen neuartigen Ansatz, schnell und intuitive auf Prozessänderungen zu reagieren. Dadurch werden Embedded-AI-Kameras in der Anwendung beherrschbar und die Leistungsfähigkeit der Deep-Learning-Technologie steht jedem zur Verfügung.

Gixel GmbH
www.baslerweb.com

Das könnte Sie auch Interessieren

Bild: Fraunhofer IEM
Bild: Fraunhofer IEM
Effiziente Produktionsplanung: KI reduziert Aufwand bei Schulte Kartonagen um 25%

Effiziente Produktionsplanung: KI reduziert Aufwand bei Schulte Kartonagen um 25%

Welcher Liefertermin steht wann an? Wie aufwändig muss die Maschine umgerüstet werden? Ist das benötigte Material bereits geliefert? Um die Reihenfolge verschiedener Kundenaufträge optimal zu planen, müssen Produktionsplaner:innen eine Vielzahl von Faktoren kennen und einschätzen. Bei Schulte Kartonagen hat ab sofort ein intelligenter KI-Assistent alle Faktoren im Blick – und macht Vorschläge für die effiziente Planung der Produktion. Gefördert wurde die Zusammenarbeit mit dem Fraunhofer IEM und den Universitäten Paderborn und Bielefeld im it’s OWL-Projekt ARISE.

Bild: schoesslers GmbH
Bild: schoesslers GmbH
appliedAI Institute for Europe launcht kostenlosen KI-Onlinekurs

appliedAI Institute for Europe launcht kostenlosen KI-Onlinekurs

Das gemeinnützige appliedAI Institute for Europe stellt den kostenfreien Online-Kurs ‚AI Essentials‘ zur Verfügung, der es Interessierten ermöglicht, in die Welt der Künstlichen Intelligenz einzusteigen. Konzepte wie maschinelles Lernen und Deep-Learning sowie deren Anwendungsmöglichkeiten und Auswirkungen auf unser Leben und unsere Wirtschaft sind Teile der umfassenden Einführung.

Bild: Trumpf SE + Co. KG
Bild: Trumpf SE + Co. KG
Künstliche Intelligenz macht Fabriken clever

Künstliche Intelligenz macht Fabriken clever

Seit dem Siegeszug des Chatbots ChatGPT ist künstliche Intelligenz in aller Munde. Auch in der industriellen Produktionstechnik kommt KI mit großen Schritten voran. Lernende Maschinen machen die Fertigung effizienter. Wie funktioniert das genau? Das können Interessierte auf der EMO Hannover 2023 vom 18. bis 23. September erfahren. Die Weltleitmesse für Produktionstechnologie wird ihr Fachpublikum unter dem Claim ‚Innovate Manufacturing‘. mit frischen Ideen inspirieren und künstliche Intelligenz spielt dabei ihre Stärken aus.

Bild: Mitsubishi Electric Corporation, Japan
Bild: Mitsubishi Electric Corporation, Japan
KI-gestütztes Analysetool für moderne Produktionslinien

KI-gestütztes Analysetool für moderne Produktionslinien

Das Data-Science-Tool Melsoft MaiLab von Mitsubishi soll Unternehmen bei der Digitalisierung ihrer Fertigung und unterstützen und so deren Produktivität steigern. Die neue Lösung ist eine intuitive, bedienerzentrierte Plattform, die KI nutzt, um Abläufe automatisch zu verbessern. Sei es Abfallvermeidung durch geringere Ausschussmengen, weniger Stillstandszeiten durch vorbeugende Wartung oder Senkung des Energieverbrauchs durch Prozessoptimierung.

Bild: Fraunhofer IGD
Bild: Fraunhofer IGD
Software Arrange beschleunigt Absortierprozesse

Software Arrange beschleunigt Absortierprozesse

In Kombination mit einer Augmented-Reality-Brille bietet eine neue Software des Fraunhofer IGD digitale Unterstützung von Absortiervorgängen. Zusammengehörige Bauteile werden direkt im Sichtfeld der Beschäftigten an der Produktionslinie farblich überlagert. Anwender im Automotive-Bereich können so etwa durch beschleunigte Prozesse und eine minimierte Fehleranfälligkeit Kosten reduzieren.