- Anzeige -
- Anzeige -
- Anzeige -
Lesedauer: 14min
Analysemodelle eigenständig weiterentwickeln
Machine Learning einfach gemacht
Seit einigen Jahren schon werden die Fantasien der Ingenieure und Anlagenbauer beflügelt durch die Möglichkeiten von KI- und Machine-Learning-Algorithmen. Klingt zwar zunächst sehr kompliziert, bietet aber konkrete Vorteile für die smarte Fabrik. Maschinen und Anlagen bzw. Produktionsprozesse erzeugen kontinuierlich Daten. Erfolgreich werden zukünftig Unternehmen sein, denen es gelingt, Mehrwert aus diesen Daten zu generieren.
Am Ende des Modellbildungsprozesses wählt der Nutzer das für seine Applikation am besten geeignete Modell nach bestimmten Kriterien aus.
Am Ende des Modellbildungsprozesses wählt der Nutzer das für seine Applikation am besten geeignete Modell nach bestimmten Kriterien aus.Bild: Weidmüller Gruppe

Einen Mehrwert erschließt sich vor allem im Bereich der Datenanalyse, so z.B. bei Predictive Maintenance. Vereinfacht ausgedrückt meldet die Maschine selbständig, wann voraussichtlich ein Ersatzteil benötigt wird. So können Maschinenbauer zukünftig neue datengetriebene Services anbieten und somit neue Geschäftsmodelle etablieren. Produzierende Unternehmen erhöhen ihre Produktqualität und reduzieren Kosten. Methoden von KI und insbesondere des Machine Learnings sind Werkzeuge, die zur Analyse der Maschinendaten eingesetzt werden. Sie erlauben es, bisher unerschlossene Daten zu verknüpfen und unbekannte Zusammenhänge zu identifizieren. Aber was steckt genau hinter Data Science? Und was versteht man eigentlich unter Automated Machine Learning?

Machine Learning einfach anwenden ohne Expertenwissen im Bereich Data Science - Automatische Modellbildung
Machine Learning einfach anwenden ohne Expertenwissen im Bereich Data Science – Automatische ModellbildungBild: Weidmüller Gruppe

Einfacher KI-Einsatz

Weidmüller setzt mit der Automated Machine Learning Software AutoML auf einen einfachen KI-Einsatz im Maschinen- und Anlagenbau. Dazu hat das Unternehmen die Anwendung von Machine Learning für industrielle Applikationen soweit standardisiert und vereinfacht, dass Domänenexperten ohne Spezialwissen im Bereich Data Science eigenständig Lösungen realisieren können. Das Software Tool führt den Anwender durch den Prozess der Modellentwicklung, weshalb Weidmüller hier auch von Guided Analytics spricht. Anwender können ohne die Hilfe von Data Scientists Modelle erstellen, modifizieren und zur Ausführung bringen, um Ausfallzeiten und Fehler zu reduzieren, Wartungsprozesse zu verbessern und die Produktqualität zu erhöhen. Die Software hilft bei der Übersetzung und Archivierung des komplexen Applikationswissens in eine verlässliche Machine-Learning-Anwendung. Dabei fokussiert sich der Anwender auf sein Wissen zum Maschinen- und Prozessverhalten und verknüpft dieses mit den im Hintergrund ablaufenden KI-Schritten. Automated Machine Learning kann in vielen Bereichen seine Anwendung finden, von der Erkennung von Anomalien über deren Klassifizierung bis zur Vorhersage. Um jedoch Anomalien zu erkennen und daraus Vorhersagen zu treffen, z.B. für das Predictive Maintenance, müssen die Daten erfasst und in Beziehung zueinander gesetzt werden. Prozessrelevante Daten von Maschinen oder Anlagen liegen in der Regel in ausreichendem Umfang vor. Um die Mehrwerte aus diesen Daten zu extrahieren, werden sie mit Hilfe von Machine-Learning-Methoden analysiert und entsprechende Modelle entwickelt.

Beim Weidmüller Industrial AutoML Tool werden die notwendigen Schritte zur Erstellung von Machine Learning Modellen für verschiedenste ML-Algorithmen automatisiert durchlaufen.
Beim Weidmüller Industrial AutoML Tool werden die notwendigen Schritte zur Erstellung von Machine Learning Modellen für verschiedenste ML-Algorithmen automatisiert durchlaufen.Bild: Weidmüller Gruppe

Durch die Software geführt

Für den Anwender stellt die Software im Wesentlichen zwei Module zur Verfügung. Mit dem Modell Builder kann der Anwender Lösungen zur Anomalieerkennung, Klassifikation und Fehlervorhersage erzeugen. Entscheidend hierbei ist das Wissen der Applikationsexperten, denn sie haben die Erfahrung, wie das reguläre oder das anormale Verhalten ihrer Maschinen und Anlagen aussieht. Sie erkennen direkt in der übersichtlichen Darstellung der Daten Abweichungen vom normalen Verhalten, können diese detektieren und klassifizieren und so für die Modellbildung definieren. Der mit dem Applikationswissen angereicherte Datensatz ist die Eingangsgröße für das anschließende automatische Generieren der Machine-Learning-Modelle. Dabei entstehen Lösungen, die mit den von Data Scientists manuell erstellten Lösungen durchaus vergleichbar sind. Dem Anwender werden mehrere Modelle vorgeschlagen, die auf unterschiedlichen Algorithmen und Werteparametern beruhen. Am Ende des Modellbildungsprozesses wählt der Nutzer das für seine Applikation am besten geeignete Modell nach bestimmten Kriterien wie Modellgüte, Ausführungszeit oder seinen bevorzugten Parametern aus. Das ausgewählte Modell kann exportiert und in die Ausführungsumgebung überführt werden. Im zweiten Modul der AutoML-Software erfolgt schließlich die Ausführung der Modelle an der Maschine – on premise oder Cloud-basiert – in der sogenannten Laufzeitumgebung.

Entscheidende Mehrwerte

Die Möglichkeiten des Machine Learnings werden mit dem immer breiter werdenden Spektrum größer. Das macht es nicht unbedingt einfacher, ohne spezifische Data-Science-Kenntnisse, die bestmögliche Erstellung und Implementierung sowie die operative Anwendung zu erreichen. Mit anderen Worten: die Erstellung von Machine-Learning-Modellen ist in der Regel zeitaufwändig und kostenintensiv in der Umsetzung. In der klassischen Herangehensweise zur Einführung von KI werden verschiedene technische Machbarkeitsstudien, sogenannte Proof-of-Concepts durchlaufen, um passende Use Cases zu finden. Darin werden die mit Machine Learning erzielbaren Ergebnisse von Maschinenexperten validiert und deren Wirtschaftlichkeit überprüft. Durch die Automatisierung mit dem AutoML-Tool ergibt sich eine hohe Zeitersparnis für die Erstellung und den Vergleich von Modellen und Ergebnissen, die Time-to-Market wird verkürzt. Die Aufgaben können deutlich rationeller umgesetzt werden, was wiederum wertvolle Ressourcen spart. Gleichzeitig profitiert der Nutzer auch von aktuellen Entwicklungen aus dem Machine-Learning-Umfeld, die kontinuierlich in das Tool einfließen. Vor allem aber liefert das Weidmüller-Tool einen entscheidenden Vorteil: Die Analyse der Daten, die in der Regel vom einem Data Scientist eines externen Partners oder aus dem eigenen Unternehmen durchgeführt werden muss, liefert das Tool – es wird lediglich gefüttert mit dem Applikations-Knowhow des Anwender. Mit anderen Worten: das Knowhow über die Maschine und deren Anwendung fließt unmittelbar in die Modellbildung ein. Die Symbiose aus Fachexpertise zur Maschine und Data-Science-Knowhow liefert schnell und einfach Ergebnisse – ohne umfangreiche Schulung und ohne Zukauf von weiterem Knowhow. Bereits in einer Stunde lässt sich ein Modell aufsetzen, das automatisiert Anomalien erkennen kann.

Einfacher Betrieb und kontinuierliche Optimierung der Modelle - Das Software-Tool führt den Anwender durch den Prozess der Modellentwicklung und -optimierung
Einfacher Betrieb und kontinuierliche Optimierung der Modelle – Das Software-Tool führt den Anwender durch den Prozess der Modellentwicklung und -optimierungBild: Weidmüller Gruppe

Seiten: 1 2Auf einer Seite lesen

Autor:
Firma: Weidmüller Interface GmbH & Co. KG
www.weidmueller.de

News

Weitere Beiträge

Das könnte Sie auch interessieren

ABB unterstützt betriebliche Optimierung mit Analyse- und KI-Software

Die ABB Ability Genix Industrial Analytics und AI Suite ist eine skalierbare Analyseplattform mit vorgefertigten, benutzerfreundlichen Anwendungen und Services. Damit werden Betriebs-, Engineering- und IT-Daten erfasst, kontextualisiert und in umsetzbare Informationen umgewandelt. So können industrielle Prozesse verbessert und das Management der Anlagen optimiert werden. Darüber hinaus können Geschäftsprozesse sicher und nachhaltig rationalisiert werden.

mehr lesen

KI-Vorreiter führen ihre KI-Initiativen trotz Corona unbeirrt fort

Unternehmen, die beim Thema künstliche Intelligenz (KI) führend sind, zeigen sich von der Corona-Pandemie unbeeindruckt: 78 Prozent der KI-Vorreiter unter den Unternehmen führen ihre KI-Initiativen wie vor der Pandemie fort, 21 Prozent haben deren Umsetzung sogar beschleunigt. Unter den Unternehmen, die KI noch nicht skalierbar einsetzen, fahren hingegen 43 Prozent ihrer Investitionen zurück und 16 Prozent haben ihre KI-Initiativen eingestellt. In Deutschland haben 44 Prozent der Unternehmen keine Änderungen vorgenommen, 8 Prozent die Geschwindigkeit erhöht und 19 Prozent ihre Initiativen aufgrund der unsicheren Lage eingestellt. Weiterhin verzeichnen Unternehmen mit skalierbaren KI-Anwendungen messbare Erfolge bei der Absatzsteigerung und der Reduzierung von Sicherheitsrisiken und Kundenbeschwerden. Zu diesen und weiteren Ergebnissen kommt die Studie ‚The AI Powered Enterprise: Unlocking the potential of AI at scale‘, für die 950 Unternehmen aus elf Ländern und elf Branchen befragt wurden.

mehr lesen

KI übernimmt Arbeit von Software-Ingenieuren

Für selbstadaptive Software gibt es heute unzählige Anwendungsmöglichkeiten. Doch die Entwicklung der Systeme stellt Software-Ingenieure vor neue Herausforderungen. Wissenschaftler vom Softwaretechnik-Institut Paluno an der Universität Duisburg-Essen (UDE) haben jetzt vielversprechende Ergebnisse mit neuartigen Verfahren der künstlichen Intelligenz (KI) erzielt, die den Entwicklungsprozess selbstadaptiver Systeme automatisieren.

mehr lesen

Wie wird künstliche Intelligenz zum Standardwerkzeug für den Mittelstand?

Das Fraunhofer-Institut für Werkzeugmaschinen und Umformtechnik IWU möchte zusammen mit den produzierenden Unternehmen des Mittelstands die entscheidende Barriere für die Anwendung künstlicher Intelligenz überwinden: Die Köpfe sind überzeugt, aber die Umgestaltung der Produktionsanlagen und -prozesse in den Fabriken stockt. Deshalb arbeiten die Forscherinnen und Forscher an einem systematischen Leitfaden, mit dem KI zum Standardwerkzeug werden soll, das bessere Produkte mit geringerem Ressourceneinsatz ermöglicht. Erste Ergebnisse sind vielversprechend.

mehr lesen

Leistungsstarkes KI-System am KIT installiert

Als ein Werkzeug der Spitzenforschung ist künstliche Intelligenz (KI) heute unentbehrlich. Für einen erfolgreichen Einsatz – ob in der Energieforschung oder bei der Entwicklung neuer Materialien – wird dabei neben den Algorithmen zunehmend auch spezialisierte Hardware zu einem immer wichtigeren Faktor. Das Karlsruher Institut für Technologie (KIT) hat nun als erster Standort in Europa das neuartige KI-System NVIDIA DGX A100 in Betrieb genommen. Angeschafft wurde es aus Mitteln der Helmholtz Artificial Intelligence Cooperation Unit (HAICU).

mehr lesen

Schutz der Privatsphäre und KI in Kommunikationssystemen

Alle zwei Jahre vergeben der VDE, die Deutsche Telekom sowie die Städte Friedrichsdorf und Gelnhausen den mit 10.000 Euro dotierten Johann-Philipp-Reis-Preis an einen Nachwuchswissenschaftler. Dieses Jahr geht er an Prof. Dr.-Ing. Delphine Reinhardt von der Georg-August-Universität Göttingen und an Dr.-Ing. Jakob Hoydis von den Nokia Bell Labs in Nozay, Frankreich. Die beiden Preisträger teilen sich die Auszeichnung und damit das Preisgeld.

Infor bringt Infor Coleman AI auf den Markt

Infor, Anbieter von branchenspezifischer Business-Software für die Cloud, hat bekanntgegeben, dass die Plattform Infor Coleman AI für Embedded-Machine-Learning-Modelle ab sofort verfügbar ist. Sie bietet die Geschwindigkeit, Wiederholbarkeit und Personalisierung, die Unternehmen benötigen, um KI vollständig zu operationalisieren.