Miteinander reden
Nicht zu unterschätzen ist die Akzeptanz der verschiedenen Beteiligten, also etwa des Managements oder der potenziellen Anwender. Ein Ingenieur, der jahrelange Erfahrung darin hat, einen Fehler an einem Produkt oder einer Maschine zu erkennen, dürfte nicht begeistert sein, wenn ein Machine-Learning-Modell seine diesbezügliche Expertise ersetzt. Daher sollten die jeweiligen Stakeholder früh eingebunden werden. Dadurch können mögliche Probleme identifiziert und Gegenmaßnahmen entwickelt werden. Wichtig ist auch, die eigenen ethischen Prinzipien für den Umgang mit KI zu definieren, zu kommunizieren und letztendlich auch einzuhalten. Ebenso wichtig ist die Transparenz. Der Mehrwert eines solchen Projektes sollte beschrieben bzw. kommuniziert werden – finanziell und in Form von Verbesserungen für den Anwender bzw. Kunden.
Sorgfältige Vorbereitung
Die Integration eines Machine Learning Use Cases in der Produktion stellt hohe fachliche und organisatorische Anforderungen, die oft unterschätzt werden. Auswirkungen auf die Geschäftsprozesse kann dies auch später nach sich ziehen. Auch das Training vieler Mitarbeiter auf das neue System ist oft aufwendiger als gedacht. Häufig sind zudem die datenschutzrechtlichen Hürden sehr hoch – die damit verbundenen Klärungs- und Freigabeprozesse können langwierig sein. Gelegentlich müssen Kunden der Anpassung bestimmter Geschäftsprozesse zustimmen. Die Folge können unerwartet hohe Kosten oder zeitlicher Verzug sein. Daher sollten Datenschutzthemen frühzeitig in die Planungen miteinbezogen werden. Es stellt sich die Frage, welche Geschäftsprozesse wie angepasst werden müssen und welcher Aufwand damit verbunden ist. Wichtig ist auch eine rechtzeitige Wirtschaftlichkeitsbetrachtung: Welcher finanzielle Gewinn lässt sich im besten und im schlechtesten Fall erzielen und welche Kosten stehen dem gegenüber?
Passende Technologie wählen
Die Überführung eines PoC in die produktiven Prozesse ist technisch oft hoch komplex. Viele unterschiedliche Technologien müssen ineinandergreifen – was die Komplexität weiter erhöht. Cloudtechnologien könnten beispielsweise helfen, diese Komplexität zu reduzieren. Entscheidend hier ist auch, wie häufig und in welchem Umfang sich die Daten ändern. Denn davon hängt unter Umständen ab, wie oft das ML-Modell aktualisiert werden muss. Auch der Einsatz von Open-Source-Technologien kann sich als sinnvoll erweisen.