- Anzeige -
- Anzeige -
- Anzeige -
- Anzeige -
- Anzeige -
Lesedauer: 14min
Analysemodelle eigenständig weiterentwickeln
Machine Learning einfach gemacht
Seit einigen Jahren schon werden die Fantasien der Ingenieure und Anlagenbauer beflügelt durch die Möglichkeiten von KI- und Machine-Learning-Algorithmen. Klingt zwar zunächst sehr kompliziert, bietet aber konkrete Vorteile für die smarte Fabrik. Maschinen und Anlagen bzw. Produktionsprozesse erzeugen kontinuierlich Daten. Erfolgreich werden zukünftig Unternehmen sein, denen es gelingt, Mehrwert aus diesen Daten zu generieren.
Am Ende des Modellbildungsprozesses wählt der Nutzer das für seine Applikation am besten geeignete Modell nach bestimmten Kriterien aus.
Am Ende des Modellbildungsprozesses wählt der Nutzer das für seine Applikation am besten geeignete Modell nach bestimmten Kriterien aus.Bild: Weidmüller Gruppe

Einen Mehrwert erschließt sich vor allem im Bereich der Datenanalyse, so z.B. bei Predictive Maintenance. Vereinfacht ausgedrückt meldet die Maschine selbständig, wann voraussichtlich ein Ersatzteil benötigt wird. So können Maschinenbauer zukünftig neue datengetriebene Services anbieten und somit neue Geschäftsmodelle etablieren. Produzierende Unternehmen erhöhen ihre Produktqualität und reduzieren Kosten. Methoden von KI und insbesondere des Machine Learnings sind Werkzeuge, die zur Analyse der Maschinendaten eingesetzt werden. Sie erlauben es, bisher unerschlossene Daten zu verknüpfen und unbekannte Zusammenhänge zu identifizieren. Aber was steckt genau hinter Data Science? Und was versteht man eigentlich unter Automated Machine Learning?

Machine Learning einfach anwenden ohne Expertenwissen im Bereich Data Science - Automatische Modellbildung
Machine Learning einfach anwenden ohne Expertenwissen im Bereich Data Science – Automatische ModellbildungBild: Weidmüller Gruppe

Einfacher KI-Einsatz

Weidmüller setzt mit der Automated Machine Learning Software AutoML auf einen einfachen KI-Einsatz im Maschinen- und Anlagenbau. Dazu hat das Unternehmen die Anwendung von Machine Learning für industrielle Applikationen soweit standardisiert und vereinfacht, dass Domänenexperten ohne Spezialwissen im Bereich Data Science eigenständig Lösungen realisieren können. Das Software Tool führt den Anwender durch den Prozess der Modellentwicklung, weshalb Weidmüller hier auch von Guided Analytics spricht. Anwender können ohne die Hilfe von Data Scientists Modelle erstellen, modifizieren und zur Ausführung bringen, um Ausfallzeiten und Fehler zu reduzieren, Wartungsprozesse zu verbessern und die Produktqualität zu erhöhen. Die Software hilft bei der Übersetzung und Archivierung des komplexen Applikationswissens in eine verlässliche Machine-Learning-Anwendung. Dabei fokussiert sich der Anwender auf sein Wissen zum Maschinen- und Prozessverhalten und verknüpft dieses mit den im Hintergrund ablaufenden KI-Schritten. Automated Machine Learning kann in vielen Bereichen seine Anwendung finden, von der Erkennung von Anomalien über deren Klassifizierung bis zur Vorhersage. Um jedoch Anomalien zu erkennen und daraus Vorhersagen zu treffen, z.B. für das Predictive Maintenance, müssen die Daten erfasst und in Beziehung zueinander gesetzt werden. Prozessrelevante Daten von Maschinen oder Anlagen liegen in der Regel in ausreichendem Umfang vor. Um die Mehrwerte aus diesen Daten zu extrahieren, werden sie mit Hilfe von Machine-Learning-Methoden analysiert und entsprechende Modelle entwickelt.

Beim Weidmüller Industrial AutoML Tool werden die notwendigen Schritte zur Erstellung von Machine Learning Modellen für verschiedenste ML-Algorithmen automatisiert durchlaufen.
Beim Weidmüller Industrial AutoML Tool werden die notwendigen Schritte zur Erstellung von Machine Learning Modellen für verschiedenste ML-Algorithmen automatisiert durchlaufen.Bild: Weidmüller Gruppe

Durch die Software geführt

Für den Anwender stellt die Software im Wesentlichen zwei Module zur Verfügung. Mit dem Modell Builder kann der Anwender Lösungen zur Anomalieerkennung, Klassifikation und Fehlervorhersage erzeugen. Entscheidend hierbei ist das Wissen der Applikationsexperten, denn sie haben die Erfahrung, wie das reguläre oder das anormale Verhalten ihrer Maschinen und Anlagen aussieht. Sie erkennen direkt in der übersichtlichen Darstellung der Daten Abweichungen vom normalen Verhalten, können diese detektieren und klassifizieren und so für die Modellbildung definieren. Der mit dem Applikationswissen angereicherte Datensatz ist die Eingangsgröße für das anschließende automatische Generieren der Machine-Learning-Modelle. Dabei entstehen Lösungen, die mit den von Data Scientists manuell erstellten Lösungen durchaus vergleichbar sind. Dem Anwender werden mehrere Modelle vorgeschlagen, die auf unterschiedlichen Algorithmen und Werteparametern beruhen. Am Ende des Modellbildungsprozesses wählt der Nutzer das für seine Applikation am besten geeignete Modell nach bestimmten Kriterien wie Modellgüte, Ausführungszeit oder seinen bevorzugten Parametern aus. Das ausgewählte Modell kann exportiert und in die Ausführungsumgebung überführt werden. Im zweiten Modul der AutoML-Software erfolgt schließlich die Ausführung der Modelle an der Maschine – on premise oder Cloud-basiert – in der sogenannten Laufzeitumgebung.

Entscheidende Mehrwerte

Die Möglichkeiten des Machine Learnings werden mit dem immer breiter werdenden Spektrum größer. Das macht es nicht unbedingt einfacher, ohne spezifische Data-Science-Kenntnisse, die bestmögliche Erstellung und Implementierung sowie die operative Anwendung zu erreichen. Mit anderen Worten: die Erstellung von Machine-Learning-Modellen ist in der Regel zeitaufwändig und kostenintensiv in der Umsetzung. In der klassischen Herangehensweise zur Einführung von KI werden verschiedene technische Machbarkeitsstudien, sogenannte Proof-of-Concepts durchlaufen, um passende Use Cases zu finden. Darin werden die mit Machine Learning erzielbaren Ergebnisse von Maschinenexperten validiert und deren Wirtschaftlichkeit überprüft. Durch die Automatisierung mit dem AutoML-Tool ergibt sich eine hohe Zeitersparnis für die Erstellung und den Vergleich von Modellen und Ergebnissen, die Time-to-Market wird verkürzt. Die Aufgaben können deutlich rationeller umgesetzt werden, was wiederum wertvolle Ressourcen spart. Gleichzeitig profitiert der Nutzer auch von aktuellen Entwicklungen aus dem Machine-Learning-Umfeld, die kontinuierlich in das Tool einfließen. Vor allem aber liefert das Weidmüller-Tool einen entscheidenden Vorteil: Die Analyse der Daten, die in der Regel vom einem Data Scientist eines externen Partners oder aus dem eigenen Unternehmen durchgeführt werden muss, liefert das Tool – es wird lediglich gefüttert mit dem Applikations-Knowhow des Anwender. Mit anderen Worten: das Knowhow über die Maschine und deren Anwendung fließt unmittelbar in die Modellbildung ein. Die Symbiose aus Fachexpertise zur Maschine und Data-Science-Knowhow liefert schnell und einfach Ergebnisse – ohne umfangreiche Schulung und ohne Zukauf von weiterem Knowhow. Bereits in einer Stunde lässt sich ein Modell aufsetzen, das automatisiert Anomalien erkennen kann.

Einfacher Betrieb und kontinuierliche Optimierung der Modelle - Das Software-Tool führt den Anwender durch den Prozess der Modellentwicklung und -optimierung
Einfacher Betrieb und kontinuierliche Optimierung der Modelle – Das Software-Tool führt den Anwender durch den Prozess der Modellentwicklung und -optimierungBild: Weidmüller Gruppe

Lösungen für ausgewählte Applikationen

Gibt es denn eine Lösung, die auf alle Anwendungen passt und automatisiert die gewünschten Ergebnisse liefert? Sicher nicht! Hier ist eine differenziertere Sichtweise nötig. Wenngleich jeweils mit zeitreihenbasierten Daten und gängigen Machine-Learning-Algorithmen gearbeitet wird, so liegt der Schlüssel zum Erfolg im gezielten Zuschnitt der Automatisierung durch die sukzessive Verkleinerung des Suchraumes. Je breiter der Anwendungsbereich sein soll, desto allgemeiner müssen die Machine-Learning-Pipelines ausgestaltet sein. Hier gilt es den Spagat zu schaffen, möglichst viele Anwendungen erfassen zu können, aber spezifisch genug zu sein, mit Blick auf die Erreichung ausreichender Modellgüte, und dass bei immer noch endlichen Rechenressourcen. Es ist offensichtlich, dass die Überwachung eines Kühlsystems basierend auf Steuerungsdaten eine andere Herangehensweise benötigt als die Überwachung eines Lagers mit Hilfe von Schwingungsdaten. Die besten Ergebnisse werden erreicht, wenn die Machine-Learning-Automatisierung auf einen möglichst spezifischen Prozess zugeschnitten werden kann, ohne zu kleinteilig zu werden. Werden also z.B. spezifische Lösungen für die in der Intralogistik üblichen Regalbediengeräte aufgebaut, so können hier – bei entsprechender Datenlage – sehr gute Ergebnisse erzielt werden. Auch für Cluster wie Pumpen, Kompressoren und Gebläse sind die Vorteile von spezifischen Machine-Learning-Lösungen offenkundig. Der Nutzen von deren automatisierter Erstellung kommt hier voll zum Tragen, von der Vermeidung möglicher Fehler in der manuellen Herangehensweise bis zum erzielten Zeitgewinn. Es zeigt sich, dass gerade solche applikationsspezifischen Lösungen sehr gute Ergebnisse liefern, insbesondere wenn Best-Practise-Erfahrungen mit einfließen.

Nachvollziehbare Ergebnisse

Darüber hinaus kann der Anwender die Ergebnisse aus dem Algorithmus sehr gut nachvollziehen. Es ist eben keine Black Box, die scheinbar willkürliche Ergebnisse ausspuckt. Durch die einfache Nachvollziehbarkeit besteht die Möglichkeit für den Anwender, die Modelle und damit die Ergebnisse über die Zeit durch seinen Input weiter zu verbessern, etwa durch eine Verfeinerung des Feature Engineerings oder das Hinzufügen neuer Annotationen, die besonders relevante Zeitbereiche in den Sensordaten darstellen und für künftiges Modelltraining gezielt verfügbar machen. Das AutoML-Tool ist Teil des aufeinander abgestimmten IoT-fähigen Portfolios von Weidmüller. Hiermit will das Unternehmen einen einfachen Weg ins Industrial IoT ermöglichen, sowohl für Greenfield- als auch für Brownfield-Applikationen. Die Lösungen aus den Bereichen Datenerfassung, -vorverarbeitung und -kommunikation bilden dabei die Infrastruktur, um darauf aufbauend die logische Verknüpfung und Auswertung der gesammelten Informationen – die Datenanalyse – aufzusetzen. Eines ist dabei klar: Digitalisierung ist kein Selbstzweck. Die Mehrwerte erschließen sich im konkreten Anwendungsfall: Ob es um die Sicherstellung der Verfügbarkeit mit Condition Monitoring geht oder den effizienteren Einsatz von Servicetechnikern aufgrund Remote Maintenance. Nicht zuletzt lassen sich so neue Geschäftsmodelle durch den Einsatz von KI entwickeln, ohne selbst Data Scientist zu sein.

Beim automatisierten Machine Learning (ML) werden die notwendigen Schritte zur Erstellung von ML-Modellen für verschiedene ML-Algorithmen automatisiert durchlaufen. Anschließend wird automatisch bestimmt, welcher Algorithmus (ML-Modell) relevante Maschinenzustände oder Prozesskriterien am robustesten erkennt. Die ML-Automatisierung betrifft dabei vor allem folgende Schritte:

• Die Datenvorverarbeitung, um die Daten in eine für ein ML-Modell verdauliche Form zu konvertieren. Dabei wird für jede eingehende Datenspur automatisch das dem Datentyp (numerisch oder kategoriale Zeitreihe) entsprechende Bereinigungsverfahren ausgeführt und es werden die für das Modell relevanten Zeitbereiche aus dem Daten.-Pool gefiltert.

• Das Feature Engineering, bei dem aus den vorbereiteten Daten durch mathematische Transformationen besonders informative Eingangsdaten, sog. Feature, für das ML-Modell berechnet und selektiert werden. So ist für viele Analytics Use Cases nicht der absolute Wert eines Sensors relevant, z.B. die Temperatur oder die Motordrehzahl, sondern wie schnell sich die Sensor- Messwerte über die Zeit verändern. In einem Folgeschritt werden mit Hilfe von statistischen Methoden aus dem Pool an automatisch erzeugen Features, diejenigen herausgefiltert, die mit ihrem Informationsgehalt dem ML-Modell am wahrscheinlichsten helfen eine richtige Entscheidung zu fällen. Dies hilft entscheidend, den riesigen Suchraum für die anschließende Optimierung, das Training des ML-Modells, zu begrenzen und mit den zur Verfügung stehenden Rechenressourcen in einer möglichst kurzen Rechenzeit lösbar zu machen.

• Die Modellvorselektion, bei der aus einem Pool an verfügbaren ML-Algorithmen diejenigen ausgewählt werden, die bei industriellen Zeitreihen in der Regel gute Ergebnisse liefern. Dies kann für den jeweiligen Analytics Use Cases (Anomalieerkennung, Fehlerklassifikation, Fehlervorhersage, Überprüfung der Prozessqualität) und die Charakteristika der Eingangsdaten sehr unterschiedlich ausfallen.

• Das Modelltraining und die Optimierung, bei dem das ML-Modell interaktiv mittels verschiedenster Optimierungsalgorithmen die statistischen Eigenschaften des Trainingsdatensatzes erlernt und diese mit einem weiteren Testdatensatz überprüft werden. Zur weiteren Verbesserung der Modelle werden zusätzlich sogenannte Hyperparameter automatisiert an den Datensatz angepasst. Die Hyperparameter bestimmen die Architektur und das Verhalten des ML-Modells. Die Modelle werden so zu Spezialisten für den bestimmten Datentyp und den zu lösenden Analytics Use Case.

• Die Modellinterpretierbarkeit ist heutzutage ein weiterer wichtiger Schritt in der ML-Automatisierung. Dabei wird für die besten Modelle berechnet, welche Eingangs-Feature, also welche Maschinen Sensorik, die Modelantwort am meisten beeinflusst hat. Dies hilft dem menschlichen Anwender zu evaluieren, ob die Modelle das Richtige gelernt haben und gibt zusätzliche Einblicke, welche Messdaten relevant bzw. wertvoll sind und archiviert werden sollten und welche Daten keinen Mehrwert liefern und nicht gespeichert werden müssen. Dies hilft Kosten für Datentransport und Vorhaltung zu optimieren.

• Das Modell-Deployment, bei dem das Modell, welches von speziellen ML-Code Bibliotheken abhängig ist, in eine gekapselte Form gebracht wird, um es vielseitig z.B. direkt an der Maschine ausführbar zu machen. Dadurch können die Modelle dann mit wenigen Klicks zur Anwendung gebracht werden.

Autor:
Firma: Weidmüller Interface GmbH & Co. KG
www.weidmueller.de
- Anzeige -

News

- Anzeige -

Weitere Beiträge

Das könnte Sie auch interessieren

Kunden begeistern und binden

Mit gutem Service können sich Firmen von der Konkurrenz abheben. Dafür müssen die Mitarbeiter schnell auf relevante Daten zugreifen können und der Kunde an allen Touchpoints gute Erfahrungen machen. Wissensdatenbanken, künstliche Intelligenz sowie unterschiedliche Supportkanäle helfen, das angestrebte Servicelevel zu erreichen.

mehr lesen

Künstliche Intelligenz in ERP-Systemen

ERP-Systeme bilden den Kern der Unternehmens-IT und stellen die zentrale Datendrehscheibe dar. Zunehmend integrieren Anbieter intelligente Algorithmen und KI-Module in ihre Systeme. Ein Team des Fraunhofer-Instituts für Intelligente Analyse- und Informationssysteme IAIS hat das Thema Künstliche Intelligenz und ERP-Systeme aus Sicht von Unternehmen untersucht und zwei Publikationen veröffentlicht: Die Studie »Wie eine ERP-Einführung gelingt« stellt Faktoren vor, die zum Erfolg einer ERP-Einführung beitragen. In Zusammenarbeit mit der Kompetenzplattform Künstliche Intelligenz Nordrhein-Westfalen (KI.NRW) ist zudem die Studie »Künstliche Intelligenz in ERP-Systemen« entstanden. Neben einer Darstellung des Status Quo zum Einsatz von KI fokussiert sie Chancen, Trends und Risiken von KI in ERP-Systemen. Die Publikationen stehen kostenfrei zum Download zur Verfügung.

mehr lesen

Schutz der Privatsphäre und KI in Kommunikationssystemen

Alle zwei Jahre vergeben der VDE, die Deutsche Telekom sowie die Städte Friedrichsdorf und Gelnhausen den mit 10.000 Euro dotierten Johann-Philipp-Reis-Preis an einen Nachwuchswissenschaftler. Dieses Jahr geht er an Prof. Dr.-Ing. Delphine Reinhardt von der Georg-August-Universität Göttingen und an Dr.-Ing. Jakob Hoydis von den Nokia Bell Labs in Nozay, Frankreich. Die beiden Preisträger teilen sich die Auszeichnung und damit das Preisgeld.

Infor bringt Infor Coleman AI auf den Markt

Infor, Anbieter von branchenspezifischer Business-Software für die Cloud, hat bekanntgegeben, dass die Plattform Infor Coleman AI für Embedded-Machine-Learning-Modelle ab sofort verfügbar ist. Sie bietet die Geschwindigkeit, Wiederholbarkeit und Personalisierung, die Unternehmen benötigen, um KI vollständig zu operationalisieren.