Funktionsbaukasten für automatische Checkoutsysteme im Retail
Congatec, Basler und NXP Semiconductors haben gemeinsam einen Funktionsbaukasten für eine Retail Deep Learning Applikation entwickelt. Die Plattform nutzt KI, um den Checkoutprozess im Einzelhandel vollständig zu automatisieren.

 


 Das Embedded-Vision-System von Congatec und Basler mit KI von irda Labs ist die erste Entwicklungsstufe der Zusammenarbeit beider Firmen. Eine Lösung mit KI auf Basis von Sparse Modeling ist in Vorbereitung und wird voraussichtlich zur Embedded World 2020 präsentiert. (Bild: congatec AG)

Das Embedded-Vision-System von Congatec und Basler mit KI von Irda Labs ist die erste Entwicklungsstufe der Zusammenarbeit beider Firmen. Eine Lösung mit KI auf Basis von Sparse Modeling ist in Vorbereitung und wird voraussichtlich zur Embedded World 2020 päsentiert. (Bild: Congatec AG)

Das Kit wurde so zusammengestellt, dass es bereits für das Training von automatischen Checkoutsystemen vorbereitet ist, d.h. es sind auch schon Waren trainiert, die automatisch per Videostream erkannt werden, ohne Bar- oder QR-Codes zu nutzen. So können z.B. Früchte oder Gemüse, die sich nicht mit einem Code versehen lassen, abgerechnet werden. Abschließend gibt das Kit eine symbolische Rechnungssumme aus, der Baukasten bringt also bereits alle Grundlagen mit sich, in bestehende Kassensysteme, die auch alle Payment-Funktionen abbilden, integriert zu werden. Ganz unabhängig von der zum Einsatz kommenden Prozessortechnologie ergibt sich immer der Bedarf für einen OEM, die Summe der Einzelteile möglichst reibungslos zur Serienreife zu bringen. Idealerweise finden der OEM dann bei einem Lieferanten spezifische Lösungsplattformen, die mehr bieten, als die Summe der einzelnen Komponenten.

 Die visionbasierte Retail Deep Learning Plattform erkennt Waren automatisch und kann den Checkout-Prozess im Einzelhandel vollständig automatisieren. (Bild: Congatec AG)

Die visionbasierte Retail Deep Learning Plattform erkennt Waren automatisch und kann den Checkout-Prozess im Einzelhandel vollständig automatisieren. (Bild: Congatec AG)

Heterogene Ansätze

Die Herausforderungen beginnen schon beim Integrationsaufwand für beispielsweise MIPI-CSI basierte Kameratechnologien. Während sie bei ARM-basierten Technologien bereits zum Standard gehören, ist hierfür bei x86-Plattformen ein spezifischer Integrationsaufwand erforderlich. Beim Einsatz von KI-Technologien gibt es zudem zwischen AMD und Intel unterschiedliche Strategien, was den Softwaresupport betrifft. So setzt AMD – so wie bei OpenCX/CV auch – auf Open Source Lösungen wie ROCm und TensorFlow, um den heterogenen Einsatz der Embedded Computing Ressourcen zu unterstützen, den man für die Deep-Learning-Inferenz-Algorithmen benötigt. Intel hingegen bietet seinen Kunden das OpenVino Toolkits an, das sowohl Optimierungen für Deep Learning Interferenzen bietet, als auch viele Aufrufe traditioneller Computer Vision Algorithmen, die in OpenCV implementiert sind, unterstützt. Letztlich zielt Intel mit dem Support von FPGAs sowie den Intel Movidius Neural Compute Stick darauf ab, nicht nur die teuren GPUs der Anbieter AMD oder Nvidia einzusetzen, sondern auch weitere Alternativen aus eigenem Hause für die Inferenzsysteme aufzuzeigen. Auch NXP bietet mit der eIQ Machine Learning Software Development Environment Antworten auf den Einsatz von KI. Es umfasst Inferenz-Maschinen, Neuronal Network Compiler, Visions- und Sensorlösungen sowie Hardware-Abstraktionsschichten. Auch eIQ basiert auf gängigen Open-Source-Frameworks, die in den NXP-Entwicklungsumgebungen für MCUXpresso und Yocto integriert sind, und ist im Early Access Release verfügbar für i.MX RT und i.MX.

Nur 50 Bilder fürs Training

Bei diesen unterschiedlichen KI-Ansätzen der Halbleiterhersteller ist bereits zu erkennen, dass sich für OEMs je nach Lösungspfad unterschiedliche Anforderungen ergeben, was die Umsetzung der eigenen Applikationen betrifft. In jedem Fall aber muss die Embedded Computing Hardware auf den Einsatz der jeweiligen Softwarelösung vorbereitet sein. KI-Implementierungen sind jedoch nur so viel wert, wie sie auch das Zusammenspiel mit den dazu passenden Embedded Vision-Technologien unterstützen. Aus diesem Grund ist congatec mit Basler eine Kooperation eingegangen, die darauf abzielt, Kunden aufeinander abgestimmte Komponenten für Embedded Vision Applikationen zu bieten. Zwei recht nah beieinander liegende Applikationsplattformen sind aus dieser Kooperation bereits entstanden. Eine mit NXP-Technologie und die andere auf Basis von Intel Prozessoren. Die Embedded Bilderkennungsplattform auf Basis von Intel Technologie erkennt Gesichter und kann sie nach Alter und Stimmung analysieren. Sie basiert auf Baslers dart Kamera Modul mit USB 3.0 und den conga-PA5 Pico-ITX Boards mit Intel Atom, Celeron und Pentium Prozessoren der 5.Generation. Die pylon Camera Software Suite wird congatec zudem als Standardsoftware in passende Kits integrieren. Die NXP-Lösungsplattform – die seit Sommer auch bei Basler erhältlich ist – zielt auf Retail Deep Learning Applikation, um den Checkoutprozess im Einzelhandel vollständig zu automatisieren. Sie erkennt Verpackungen über ein KI-Inferenzsystem und basiert auf einem Embedded Vision Kit mit NXP i.MX 8QuadMax SoC auf dem Smarc 2.0 Computer-on-Module conga-SMX8 von congatec, einem Smarc 2.0 Carrierboard und Baslers Kameramodul dart BCON für MIPI 13MP. Ergänzend hat congatec nun auch eine Lösung für KI als ersten Schritt in seine Intel Atom basierten Plattformen integriert. Sie basiert auf Sparse Modeling und benötigt nur rund 50 Bilder für das Training. Würden Retailer neue Produkte ins Sortiment aufnehmen, sind also nur rund 50 unterschiedliche Bilder zum Training der Systeme erforderlich, z.B. in einem Warenkorb oder auf einem Laufband. Das Training kann also auch direkt an der Kasse durchgeführt werden, sodass selbst Einzelhändler mit nur einer einzigen Kasse das System nutzen könnten. Das Update aller Kassen eines großen Retailers ist dann nur noch eine Frage der Cloud-Anbindung der Systeme.

Anzeige

Anzeige

Das könnte Sie auch Interessieren

Bild: Abat AG
Bild: Abat AG
Forschungskooperation verlängert

Forschungskooperation verlängert

Bild: Abat AG Voneinander und miteinander lernen, gemeinsam an innovativen Ideen für den Markt innerhalb von Forschungskooperationen tätig sein - seit mehreren Jahren schon besteht eine enge Zusammenarbeit zwischen der Bremer Abat AG und der Uni Oldenburg (Abteilung...

Image: Xilinx Inc.
Image: Xilinx Inc.
Adaptive AI Vision

Adaptive AI Vision

Image: Xilinx Inc. Die Kria SOMs ermöglichen den schnellen Einsatz durch Bereitstellung einer End-to-End Lösung auf Board-Ebene mit vorkonfiguriertem Software Stack. Das Kria K26 SOM basiert auf der Zynq UltraScale+ MPSoC Architektur, die einen Quad-Core Arm Cortex...