- Anzeige -
Lesedauer: min
Die Demokratisierung von maschinellem Lernen in der Industrie

 (Bild: Weidmüller Gruppe)

(Bild: Weidmüller Gruppe)

Industrial-Analytics-Lösungen zur Realisierung von Predictive Maintenance finden zunehmend Verbreitung. Um die Werte aus den Maschinendaten zu extrahieren, werden diese mit Hilfe von Machine Learning analysiert und entsprechende Modelle entwickelt. Machine Learning Modelle (ML-Modelle) werden heute in der Regel von Data Scientists kreiert. Ihr Expertenwissen im Bereich künstlicher Intelligenz (KI) Machine Learning (ML), Statistik und Mathematik ist notwendig, um performante ML-Modelle zu erstellen. Es gibt erste Software-Werkezeuge, um Teile des Modellbildungsprozesses zu automatisieren und den Data Scientists einen erheblichen Teil ihrer Arbeit abzunehmen. Beispiele solcher Werkzeuge werden unter anderem von Rapidminer, Kinme, DataRobot, Presenso, Microsoft oder IBM angeboten. Diese Automated Machine Learning Tools beschleunigen die Entwicklung von ML-Modellen erheblich. Zur Anwendung ist allerdings tiefgreifendes Wissen im Bereich Data Science notwendig. Darüber hinaus muss der Data Scientist immer noch mit dem Applikationsexperten sprechen, um die gefundenen Zusammenhänge in den Daten ingenieurmäßig bezüglich des Maschinenverhaltens oder des Produktionsprozesses zu interpretieren.

Automatische Erzeugung von ML-Modellen

Die Idee von Weidmüller ist ein völlig neuer Ansatz bei der Realisierung einer Automated-Machine-Learning-Software für den Maschinen- und Anlagenbau. Die Domänenexperten werden befähigt auf Basis ihres Applikationswissens eigenständig ML-Modelle zu erzeugen. Das Auto-ML-Tool besteht aus vier Modulen zur Modellbildung, -ausführung, -optimierung und zum Management der Modelle über ihren Lebenszyklus: Mit dem Modul zur Modellbildung können ML-Modelle zur Anomalieerkennung, Klassifikation und Fehlervorhersage erzeugt werden. Dabei wird der Nutzer durch den Modelbildungsprozess geführt, so dass er gezielt sein Applikationswissen einbringen kann. Auf Basis dieses Wissens werden automatisch alternative ML-Modelle erzeugt, optimiert, validiert und gegeneinander vergleichen. Am Ende des Modellbildungsprozesses kann der Nutzer das für seine Applikation am besten passende Modell nach bestimmten Kriterien wie Modellgüte oder Ausführungszeit auswählen, exportieren und speichern oder in die automatisch generierbare Ausführungsumgebung überführen. Die Ausführungsumgebung dient zum Betrieb der ML-Modelle in der Cloud oder in einer on-Premise-Anwendung. Sie ist plattformunabhängig und skaliert automatisch gemäß der Anzahl der auszuführenden Modelle. Darüber hinaus stellt die Ausführungsumgebung die Modellergebnisse verständlich dar, so dass der Nutzer konkrete Handlungen z.B. zur Fehlervermeidung umsetzten kann. Das Modul zur Optimierung der ML-Modelle im Betrieb ermöglicht es dem Anwender die Modelle kontinuierlich zu verbessern. Neue Betriebssituationen einer Maschine oder neue Ereignisse können den Modellen mit wenigen Klicks hinzugefügt werden, wodurch sich die Leistungsfähigkeit der Modelle über ihren Lebenszyklus steigern lässt. Mit dem vierten Modul werden die ML-Modelle über ihren Lebenszyklus verwaltet. Enthalten sind unter anderem Funktionen zur Versionierung, Wiederherstellung, Modellüberwachung, etc. Das Automated-Machine-Learning-Tool von Weidmüller ist der erste Software-Service, der Domänenexperten in die Lage versetzt, eigenständig ML-Modelle zu erzeugen – ohne selbst Data Scientist zu sein und ohne spezielles Wissen im Bereich KI und ML zu haben. Dabei kann ein erstes Modell bereits in 20 Minuten generiert werden, wobei die erzeugten Modelle denen einer vollständig automatisierten Lösung sowie klassischen Condition Monitoring Lösungen überlegen sind. In ersten Pilotprojekten ist nachgewiesen, dass das Einbringen des Applikationswissens die Modellgüte signifikant erhöht. Das Auto-ML-Tool generiert sogar ML-Modelle, die dem von einem Data Scientist kreierten Modell überlegen sind. Möglich ist dies durch die geschickte Kombination des Auto-ML-Ansatzes mit dem Domänenwissen.

Akzeptanz von KI und ML schaffen

Die Rückmeldung der ersten Pilotanwender bei Maschinenbauern und -betreibern ist, dass der Auto-ML-Service in seiner Funktionsweise und in der Nutzerführung optimal auf die Bedürfnisse der Anwender zugeschnitten ist. Darüber hinaus wird die intuitive und einfache Anwendung von Machine Learning betont. Durch diese sogenannte User Experience gelingt es die Datenanalyse- und Modellbildungsschritte begreifbar zu machen und eine Akzeptanz von KI und ML zu schaffen. Dazu wird der Nutzer während des Modellbildungsprozesses derart mit Informationen versorgt, dass er den Einfluss seines Wissens auf die Modellgüte nachvollziehen kann. Mit den oben skizzierten vier Software-Modulen ist das Automated-Machine-Learning-Tool vollständig durchgängig – von der Modellerstellung, über den Betrieb bis hin zur Möglichkeit der selbstständigen Weiterentwicklung bietet die Software eine Ende-zu-Ende Lösung. Dies stellt sicher, dass die einmal erzeugten Modelle auch tatsächlich in den Betrieb überführt und langfristig angewendet werden. Dass heute nur ca. 60 Prozent der initial erzeugten Modelle in die Produktivumgebung überführt und betrieben werden, zeigt das große Potenzial, dass durch das Automated-Machine-Learning-Tool erschlossen wird.Damit wird die Vision hinter dem Auto-ML-Service in beeindruckender Art und Weise umgesetzt: Die Anwendung von Machine Learning für die Industrie zu Demokratisieren. Auch deshalb hat der Auto-ML-Service als Nutzergruppe die Domänenexperten im Fokus. Im Vergleich zur Anzahl der verfügbaren Data Scientists gibt es zahlreiche Domänenexperten, so dass die Durchdringung von industriellen Anwendungen mit KI und ML beschleunigt wird.

Autor:
Firma:

News

Weitere Beiträge

Das könnte Sie auch interessieren

Von Schlaglocherkennung bis Röntgenbild-Analyse: Was KI in der Praxis leisten kann

Bitkom veröffentlicht den Leitfaden ‚Konkrete Anwendungsfälle von Künstlicher Intelligenz & Big-Data in der Industrie‘ und zeigt an zwölf Anwendungsbeispielen, wie künstliche Intelligenz und Big Data in der Industrie eingesetzt werden können. Beim Big-Data.AI Summit am 1. und 2. April in Berlin werden werden branchenübergreifende Strategien, Technologien & Trends sowie Lösungen und gesellschaftliche Herausforderungen diskutiert.

mehr lesen

Künstliche Intelligenz in Echtzeit

Soll künstliche Intelligenz in industriellen Applikationen zum Einsatz kommen, sind vielfach parallele Rechenprozesse bei kürzesten Reaktionszeiten in Echtzeit von Nöten. Das stellt an Embedded Computer Technologien wie Computer-on-Modules mit AMD Ryzen Embedded V1000 Prozessoren ganz neue Anforderungen.

mehr lesen

Vorausschauende Wartung mit KI

Hinterher ist man bekanntlich immer schlauer. Mit künstlicher Intelligenz (KI) sieht das allerdings anders aus: Durch die Analyse von in Echtzeit erfassten Betriebsparameterwerten wird Wartungsbedarf ermittelt, bevor er anfällt. So können Maßnahmen im Voraus geplant und auf ein Minimum reduziert werden. Mitsubishi Electric nutzt hierfür seine KI-Technologie Maisart 1, die ganz einfach per Melfa-SmartPlus-Zusatzkarte am Melfa-Roboter implementiert werden kann.

mehr lesen

Schutz der Privatsphäre und KI in Kommunikationssystemen

Alle zwei Jahre vergeben der VDE, die Deutsche Telekom sowie die Städte Friedrichsdorf und Gelnhausen den mit 10.000 Euro dotierten Johann-Philipp-Reis-Preis an einen Nachwuchswissenschaftler. Dieses Jahr geht er an Prof. Dr.-Ing. Delphine Reinhardt von der Georg-August-Universität Göttingen und an Dr.-Ing. Jakob Hoydis von den Nokia Bell Labs in Nozay, Frankreich. Die beiden Preisträger teilen sich die Auszeichnung und damit das Preisgeld.

Infor bringt Infor Coleman AI auf den Markt

Infor, Anbieter von branchenspezifischer Business-Software für die Cloud, hat bekanntgegeben, dass die Plattform Infor Coleman AI für Embedded-Machine-Learning-Modelle ab sofort verfügbar ist. Sie bietet die Geschwindigkeit, Wiederholbarkeit und Personalisierung, die Unternehmen benötigen, um KI vollständig zu operationalisieren.