KI-Beschleunigerkarten für (Vision) Edge Computing

Die Mustang Serie an KI-Beschleunigerkarten ist mit ihrer Low Power Architektur und Skalierbarkeit eine Alternative zu GPU-basierten KI-Lösungen. Die Kompatibilität zum Open Visual Inference Neural Network Optimization (OpenVino) Toolkit bietet eine einfache Möglichkeit Trainingsmodelle an der Edge zu implementieren.

Bild: ICP Deutschland GmbH

Inferenzsysteme verwenden meist vortrainierte Datensätze, sogenannte Trainingsmodelle, die in Hochleistungsrechnern erstellt worden sind. Meist kommen dabei mehrere Grafikkarten zum Einsatz, um das Modell möglichst schnell zu klassifizieren. Daher ist der Einsatz von Grafikkarten an der Edge aus unterschiedlichen Gründen nicht sinnvoll, da u.a. Anforderungen wie physische Größe des Inferenzsystems, Stromverbrauch oder das Preis-/Leistungsverhältnis eine Rolle spielen. Diese Anforderungen lassen sich mit GPU-basierten Systemen kaum erfüllen. Mit der Mustang KI Beschleunigerkarten Serie bieten sich allerdings neue Möglichkeiten. Es stehen zwei unterschiedliche Serien zur Auswahl.

VPU-Beschleunigerkarten

Die VPU-basierte Mustang Serie verwendet Intel Movidius Myriad X MA2485 Visual Processing Units. Diese VPUs sind durch die Kombination ihres neuralen Netzwerks mit 16 Shave Kernen und ihrer Neural Compute Engine speziell für KI Anwendungen im Vision Bereich ausgelegt. Neben einer Vielzahl von implementierten Hardwarefunktionen für die Bildverarbeitung, enthält jede VPU eine Stereo Depth Block Funktion, die in der Lage ist zwei Streams mit einer Auflösung von 720P bei 180Hz zu verarbeiten. Native FP16 Berechnungen oder 8bit Festkommaberechnungen, aber auch die ISP-Pipeline und hardwarebasierte Codierung ermögliche anspruchsvolle Bild-oder Videoverarbeitung mit einer 4k-Auflösung. Jeder einzelnen VPU lässt sich dabei eine andere DL-Topologie zuweisen. Grund hierfür ist deren Multi-Channel Fähigkeit, die eine simultane Ausführung von Berechnungen ermöglicht. So lassen sich unterschiedliche Anwendungen wie Objekterkennung oder Bild- und Videoklassifikation gleichzeitig ausführen. Auf der PCI Express x4 Bus basierten Mustang-V100-MX8 kommen gleich acht VPUs zum Einsatz und erreichen eine Rechenleistung von einem Tops. Damit ist die Karte in der Lage mehr als zehn Video Streams gleichzeitig zu verarbeiten. Dabei verbraucht jede VPU nur 2,5W. Im Gesamten verbleibt die Karte unter 30W und eignet sich für anspruchsvolle Low-Power KI-Anwendungen. Sind weniger als zehn Streams zu verarbeiten kann eine kleinere Variante, wie die Mustang-V100-MX4 mit vier MA2485 VPU Einheiten, verwendet werden. Auch diese basiert auf PCI Express Bus benötigt allerdings nur einen x2 Steckplatz und kann in nahezu jeden Kompakt-PC verbaut werden. Für besonders kompakte Embedded PC Systeme, die keinen PCI Express Steckplatz bieten, stehen zwei VPU Module zur Auswahl die auf dem M.2 Formfaktor basieren. Die Mustang-M2AE-MX1 mit einer VPU Einheit sowie die Mustang-M2BM-MX2 mit zwei MA2485 VPU Einheiten. Für Systeme mit älterem Mini-PCI Express Bus eignet sich die Mustang-MPCIE-MX2 mit zwei Myriad VPU Einheiten.

FPGA-Beschleunigerkarten

Stehen Anforderungen an kurze Latenzzeiten im Raum, oder sind höhere Auflösungen bei einer höheren Taktrate zu verarbeiten, bietet sich die Mustang-F100 an. Anders als die Mustang-V100 Serie basiert diese auf dem Intel Arria 10 GX1150 FPGA und ist mit 8GB on-board DDR4 RAM ausgestattet. Ihr kompaktes Profil (170x68x34mm) und standardisiertes PCIe Gen3 x8 Interface sorgen für eine problemlose Integration der KI-Beschleunigerkarte. Das Zuweisen einer individuellen Karten-ID ermöglicht den Betrieb von mehreren Karten innerhalb eines einzelnen Inferenzsystems. Durch die Parallelität der Datenverarbeitung und dem hohen Konfigurierungsgrad, kann die Mustang-F100 wechselnde Workloads und verschiedene Gleitkommazahlen verarbeiten. Dank integrierter Intel Enpirion Power Lösung weist sie eine hohe Effizienz (<60W TDP), Leistungsdichte und Performance (bis zu 1,5 Tflops) auf.

Software & Benchmark

Für beide Serien stehen von Intel SDKs zur Verfügung. Mit dem Intel Movidius Myriad Development Kit (MDK) können eigene Funktionen eingebunden und beliebige Verarbeitungspipelines aufgebaut werden. Es steht ein großes Angebot an Bibliotheken für Bildverarbeitung und Neurale Netze zur Auswahl. Für die Mustang Serie mit FPGA bietet Intel Entwicklern das FPGA SDK for OpenCLTM, den Platform Designer und den DSP Builder für FPGAs. Die Mustang Serien V100 und F100 bieten zusätzlich, mit der Kompatibilität zum OpenVino Toolkit, eine optimierte Integration von Trainingsmodellen. Das Toolkit nimmt automatisch eine passende Skalierung auf das jeweilige Zielsystem an der Edge vor. Darüber hinaus wird bereits eine Vielzahl weiterer Topologien unterstützt. Von der klassischen Objekterkennung über die Video- und Bildklassifikation bis hin zur Gesichtserkennung oder Bildsegmentierung sind anwendungsseitig kaum Grenzen. Je nach Topologie empfiehlt es sich den Bitstream der Mustang-F100 anzupassen, um ihre Performance zu optimieren. Je nach OpenVino Toolkit Version stehen unterschiedliche Bitstreams zur Verfügung, die mit dem Toolkit eingespielt werden. Benchmark Tests mit dem im OpenVino Toolkit integrierten Testtool zeigen, dass man durch die Anpassung des Bitstreams an die verwendete Topologie GPU basierten Inferenzmaschinen deutlich den Rang ablaufen kann. So zeigt die Mustang-F100 eine 87% höhere Performance bei SqueezeNet 1.1 oder 82% bei Yolo Tiny V1 gegenüber einer Nvidia P4 Lösung.

ICP Deutschland GmbH
www.icp-deutschland.de

Das könnte Sie auch Interessieren

Bild: Fraunhofer IEM
Bild: Fraunhofer IEM
Effiziente Produktionsplanung: KI reduziert Aufwand bei Schulte Kartonagen um 25%

Effiziente Produktionsplanung: KI reduziert Aufwand bei Schulte Kartonagen um 25%

Welcher Liefertermin steht wann an? Wie aufwändig muss die Maschine umgerüstet werden? Ist das benötigte Material bereits geliefert? Um die Reihenfolge verschiedener Kundenaufträge optimal zu planen, müssen Produktionsplaner:innen eine Vielzahl von Faktoren kennen und einschätzen. Bei Schulte Kartonagen hat ab sofort ein intelligenter KI-Assistent alle Faktoren im Blick – und macht Vorschläge für die effiziente Planung der Produktion. Gefördert wurde die Zusammenarbeit mit dem Fraunhofer IEM und den Universitäten Paderborn und Bielefeld im it’s OWL-Projekt ARISE.

Bild: schoesslers GmbH
Bild: schoesslers GmbH
appliedAI Institute for Europe launcht kostenlosen KI-Onlinekurs

appliedAI Institute for Europe launcht kostenlosen KI-Onlinekurs

Das gemeinnützige appliedAI Institute for Europe stellt den kostenfreien Online-Kurs ‚AI Essentials‘ zur Verfügung, der es Interessierten ermöglicht, in die Welt der Künstlichen Intelligenz einzusteigen. Konzepte wie maschinelles Lernen und Deep-Learning sowie deren Anwendungsmöglichkeiten und Auswirkungen auf unser Leben und unsere Wirtschaft sind Teile der umfassenden Einführung.

Bild: Trumpf SE + Co. KG
Bild: Trumpf SE + Co. KG
Künstliche Intelligenz macht Fabriken clever

Künstliche Intelligenz macht Fabriken clever

Seit dem Siegeszug des Chatbots ChatGPT ist künstliche Intelligenz in aller Munde. Auch in der industriellen Produktionstechnik kommt KI mit großen Schritten voran. Lernende Maschinen machen die Fertigung effizienter. Wie funktioniert das genau? Das können Interessierte auf der EMO Hannover 2023 vom 18. bis 23. September erfahren. Die Weltleitmesse für Produktionstechnologie wird ihr Fachpublikum unter dem Claim ‚Innovate Manufacturing‘. mit frischen Ideen inspirieren und künstliche Intelligenz spielt dabei ihre Stärken aus.

Bild: Mitsubishi Electric Corporation, Japan
Bild: Mitsubishi Electric Corporation, Japan
KI-gestütztes Analysetool für moderne Produktionslinien

KI-gestütztes Analysetool für moderne Produktionslinien

Das Data-Science-Tool Melsoft MaiLab von Mitsubishi soll Unternehmen bei der Digitalisierung ihrer Fertigung und unterstützen und so deren Produktivität steigern. Die neue Lösung ist eine intuitive, bedienerzentrierte Plattform, die KI nutzt, um Abläufe automatisch zu verbessern. Sei es Abfallvermeidung durch geringere Ausschussmengen, weniger Stillstandszeiten durch vorbeugende Wartung oder Senkung des Energieverbrauchs durch Prozessoptimierung.

Bild: Fraunhofer IGD
Bild: Fraunhofer IGD
Software Arrange beschleunigt Absortierprozesse

Software Arrange beschleunigt Absortierprozesse

In Kombination mit einer Augmented-Reality-Brille bietet eine neue Software des Fraunhofer IGD digitale Unterstützung von Absortiervorgängen. Zusammengehörige Bauteile werden direkt im Sichtfeld der Beschäftigten an der Produktionslinie farblich überlagert. Anwender im Automotive-Bereich können so etwa durch beschleunigte Prozesse und eine minimierte Fehleranfälligkeit Kosten reduzieren.