- Anzeige -
- Anzeige -
- Anzeige -
Lesedauer: 0min
Drei Millionen Bilder pro Tag analysiert

Nov 18, 2019 | Industrielle Produktion

Der Spielraum für Fehler ist in der Fertigung von Hightech-Elektronik sehr klein. Um die ohnehin schon geringe Fehlerrate weiter zu reduzieren, hat Seagate bei der Wafer-Fertigung KI mit industrieller Bildverarbeitung gekoppelt.

Bild: ©sebastianreuter/stock.adobe.com

Seagate produziert jedes Jahr mehr als eine Milliarde Wandler in seiner Waferfertigung in Normandale, Minnesota, USA. Um die hohen Qualitätsstandards einzuhalten und Herstellungsfehler früh zu erkennen, müssen die Wandler umfassend analysiert und getestet werden. Die Produktion der Wandler startet mit dem Rohmaterial, das im Wesentlichen ein dünnes Halbleitersubstrat ist. Im Laufe eines fotolithografischen Prozesses wird das Substrat zu einem dünnen, flachen, kristallinen Wafer. Der Wafer wird, wenn er geschnitten und weiterverarbeitet wird, zu einem Wandler (auch bekannt als Schieberegler) – ein Element, das in der Lage ist, Daten auf eine rotierende Magnetplatte zu schreiben und sie zu lesen. Der Testprozess ist lang, komplex und erfordert viel Fingerspitzengefühl. In jedem 200mm-Wafer befinden sich 100.000 Schieber, die überprüft werden müssen. In der Fabrik in Normandale werden täglich Millionen von Mikroskopaufnahmen erzeugt. Das entspricht einem Volumen von 10 Terabyte an Daten, die gesichtet werden müssen, um mögliche Produktionsfehler zu erkennen, bevor die Wafer in Laufwerken verbaut werden.

Nur bekannte Fehler auffindbar

Bisher war es die Aufgabe der Ingenieure, all diese Bilder zu analysieren. Dies birgt ein gewisses Fehlerpotenzial, was dazu führen kann, dass defekte Wandler erst zu einem späteren Zeitpunkt im Herstellungsprozess erkannt werden und dadurch zusätzliche Kosten verursachen. Seagate benötigte eine Lösung, um mehr Bilder in kürzerer Zeit zu überprüfen. Doch selbst das Einstellen von mehr Bildanalyseexperten würde nicht ausreichen, um Millionen von Bildern zu verarbeiten. Schließlich wurde mit einer regelbasierten Bildanalyse zunächst ein erster Automatisierungsgrad erreicht. Mit diesem Ansatz ließen sich einige Anomalien identifizieren – die Voraussetzung dafür war jedoch, dass das System weiß, wonach es suchen muss. Hinzu kam, dass die Regeln manuell eingestellt werden mussten. Dies war ein zeitaufwendiger Prozess, der ständig optimiert und verfeinert werden musste. Das regelbasierte System konnte nur langsam eingerichtet und optimiert werden und lieferte dabei variable Ergebnisse. Abgesehen von einigen Fehlmeldungen des Systems konnte es durch die vorgegebenen Regeln nur bekannte Probleme erkennen. Dies führte zu dem potenziellen Risiko, dass fehlerhafte Wafer vor der Montage in Lese- und Schreibköpfe nicht erkannt werden konnten. Erst die Fortschritte in den Bereichen KI, maschinelles Lernen und Sensoren für das Internet der Dinge führte zu einer Lösung für das Problem.

Eine interne KI-Edge-Plattform

Einer Lösung standen zwei große Herausforderungen im Weg: Das riesige Volumen an Daten, das im täglichen Prozess zu bewältigen war und die Beschränkung bestehender regelbasierter Analyse-Tools, die es zu umgehen galt. Traditionelle Big-Data-Programme arbeiten nach einem Batch-Prozess – dieser eignet sich jedoch nicht für eine Produktionslinie, die rund um die Uhr und 365 Tage im Jahr betrieben wird. Der erste Schritt war der Aufbau eines neuronalen Netzes (Deep Neural Network, DNN), das Erkenntnisse zur Verbesserung der Automatisierung der Erkennung von defekten Wandlern liefern konnte. Das neuronale Netz wurde mit den Grafikprozessoren Nvidia V100 und P4 sowie leistungsstarken All-Flash-Array-Systemen der Reihe Nytro X 2U24 von Seagate entwickelt.

Seiten: 1 2Auf einer Seite lesen

Autor:
Firma:

News

Weitere Beiträge

Das könnte Sie auch interessieren

ABB unterstützt betriebliche Optimierung mit Analyse- und KI-Software

Die ABB Ability Genix Industrial Analytics und AI Suite ist eine skalierbare Analyseplattform mit vorgefertigten, benutzerfreundlichen Anwendungen und Services. Damit werden Betriebs-, Engineering- und IT-Daten erfasst, kontextualisiert und in umsetzbare Informationen umgewandelt. So können industrielle Prozesse verbessert und das Management der Anlagen optimiert werden. Darüber hinaus können Geschäftsprozesse sicher und nachhaltig rationalisiert werden.

mehr lesen

KI-Vorreiter führen ihre KI-Initiativen trotz Corona unbeirrt fort

Unternehmen, die beim Thema künstliche Intelligenz (KI) führend sind, zeigen sich von der Corona-Pandemie unbeeindruckt: 78 Prozent der KI-Vorreiter unter den Unternehmen führen ihre KI-Initiativen wie vor der Pandemie fort, 21 Prozent haben deren Umsetzung sogar beschleunigt. Unter den Unternehmen, die KI noch nicht skalierbar einsetzen, fahren hingegen 43 Prozent ihrer Investitionen zurück und 16 Prozent haben ihre KI-Initiativen eingestellt. In Deutschland haben 44 Prozent der Unternehmen keine Änderungen vorgenommen, 8 Prozent die Geschwindigkeit erhöht und 19 Prozent ihre Initiativen aufgrund der unsicheren Lage eingestellt. Weiterhin verzeichnen Unternehmen mit skalierbaren KI-Anwendungen messbare Erfolge bei der Absatzsteigerung und der Reduzierung von Sicherheitsrisiken und Kundenbeschwerden. Zu diesen und weiteren Ergebnissen kommt die Studie ‚The AI Powered Enterprise: Unlocking the potential of AI at scale‘, für die 950 Unternehmen aus elf Ländern und elf Branchen befragt wurden.

mehr lesen

KI übernimmt Arbeit von Software-Ingenieuren

Für selbstadaptive Software gibt es heute unzählige Anwendungsmöglichkeiten. Doch die Entwicklung der Systeme stellt Software-Ingenieure vor neue Herausforderungen. Wissenschaftler vom Softwaretechnik-Institut Paluno an der Universität Duisburg-Essen (UDE) haben jetzt vielversprechende Ergebnisse mit neuartigen Verfahren der künstlichen Intelligenz (KI) erzielt, die den Entwicklungsprozess selbstadaptiver Systeme automatisieren.

mehr lesen

Wie wird künstliche Intelligenz zum Standardwerkzeug für den Mittelstand?

Das Fraunhofer-Institut für Werkzeugmaschinen und Umformtechnik IWU möchte zusammen mit den produzierenden Unternehmen des Mittelstands die entscheidende Barriere für die Anwendung künstlicher Intelligenz überwinden: Die Köpfe sind überzeugt, aber die Umgestaltung der Produktionsanlagen und -prozesse in den Fabriken stockt. Deshalb arbeiten die Forscherinnen und Forscher an einem systematischen Leitfaden, mit dem KI zum Standardwerkzeug werden soll, das bessere Produkte mit geringerem Ressourceneinsatz ermöglicht. Erste Ergebnisse sind vielversprechend.

mehr lesen

Leistungsstarkes KI-System am KIT installiert

Als ein Werkzeug der Spitzenforschung ist künstliche Intelligenz (KI) heute unentbehrlich. Für einen erfolgreichen Einsatz – ob in der Energieforschung oder bei der Entwicklung neuer Materialien – wird dabei neben den Algorithmen zunehmend auch spezialisierte Hardware zu einem immer wichtigeren Faktor. Das Karlsruher Institut für Technologie (KIT) hat nun als erster Standort in Europa das neuartige KI-System NVIDIA DGX A100 in Betrieb genommen. Angeschafft wurde es aus Mitteln der Helmholtz Artificial Intelligence Cooperation Unit (HAICU).

mehr lesen

Schutz der Privatsphäre und KI in Kommunikationssystemen

Alle zwei Jahre vergeben der VDE, die Deutsche Telekom sowie die Städte Friedrichsdorf und Gelnhausen den mit 10.000 Euro dotierten Johann-Philipp-Reis-Preis an einen Nachwuchswissenschaftler. Dieses Jahr geht er an Prof. Dr.-Ing. Delphine Reinhardt von der Georg-August-Universität Göttingen und an Dr.-Ing. Jakob Hoydis von den Nokia Bell Labs in Nozay, Frankreich. Die beiden Preisträger teilen sich die Auszeichnung und damit das Preisgeld.

Infor bringt Infor Coleman AI auf den Markt

Infor, Anbieter von branchenspezifischer Business-Software für die Cloud, hat bekanntgegeben, dass die Plattform Infor Coleman AI für Embedded-Machine-Learning-Modelle ab sofort verfügbar ist. Sie bietet die Geschwindigkeit, Wiederholbarkeit und Personalisierung, die Unternehmen benötigen, um KI vollständig zu operationalisieren.