Beim Natural Language Processing interagieren Computer möglichst sinnvoll mit Anwendern in menschlicher Sprache. Was hinter der Spracherkennung von Siri und Co. bereits im Verbrauchermarkt etabliert ist, könnte bald den Umgang mit Geschäftsanwendungen revolutionieren. Auf dem Feld der Datenanalyse gibt es bereits konkrete Anwendungen.
Natural Language Processing (NLP), also das Steuern von Computern mittels Sprache, hat in den letzten Jahren eine sprunghafte technologische Entwicklung erlebt. Laut einer Studie von Deloitte wird NLP inzwischen von 61 Prozent der befragten deutschen Unternehmen angewendet. Das neue Feature von Tableau, Ask Data, verwendet NLP und erlaubt Anwendern somit, Fragen zu ihren Daten in natürlicher Sprache schriftlich zu formulieren und eine visuelle Antwort in Tableau zu erhalten. Dies erleichtert es Benutzern unabhängig von ihrem Kompetenzniveau, mit Daten zu interagieren und daraus analytische Erkenntnisse zu gewinnen. Anwender sollen sich mit den Daten regelrecht unterhalten und in einem Frage-Antwort-Spiel zu neuen Erkenntnissen gelangen. Der Mensch stellt Fragen, der Rechner zieht die richtigen Daten.
Kontextwissen berücksichtigt
Obwohl Technologien für die natürliche Sprachverarbeitung bereits seit mehr als 20 Jahren vorhanden sind, waren sie bisher in Umfang und Funktionalität immer stark begrenzt. Früher hätte man jede Frage, die ein Nutzer potenziell stellen könnte, einzeln programmieren müssen. Die spezielle Herausforderung für Tableau bestand also darin, unter Zuhilfenahme von KI eine Technologie zu entwickeln, die die Bedeutung einer Frage wirklich verstehen kann, und nicht nur die Wörter in der Frage definiert. KI und ML-Algorithmen sind heute schon in der Lage, sogar Absichten hinter einer Frage erkennen zu können und sich nicht nur auf Keywords zu stützen. Ein intelligentes Analyseprogramm wie Ask Data kombiniert statistisches Wissen über eine Datenquelle mit Kontextwissen über die reale Welt, um die richtigen Methoden zur Analyse von Fragen zu bestimmen. Die Stärke von Ask Data liegt in seiner Fähigkeit, Hunderte oder Tausende von Datentabellen in Millisekunden zu durchsuchen, wodurch die Technologie in die Lage versetzt wird, potenzielle Treffer zu finden, die mit den gewählten Ausdrücken übereinstimmen.
Die Anwendung
Bei einer Suchabfrage in Vertriebsdaten nach ‚Industriesteuerungsverkauf in Deutschland‘ weiß das Programm beispielsweise, dass Filter wie ‚Produktkategorie‘ oder ‚Land‘ anzuwenden sind. Dazu wird statistisches Wissen zu einer Datenquelle mit Kontextdaten über reale Sachverhalte kombiniert: Industriesteuerung ist ein häufiger Wert für das Feld Produktkategorie, und ‚deutsch‘ ein Synonym für ‚Deutschland‘. Mittels dieser eingebetteten Unterstützung von Synonymen können Nutzer Erkenntnisse gewinnen und zugleich für ein und dasselbe Feld verschiedene Ausdrücke verwenden, etwa ‚Umsatz‘ oder ‚Buchungen‘. Oder, wenn ein NLP-gesteuertes Analysesystem nach dem ‚durchschnittlichen Gaspreis nach Region‘ gefragt wird, sucht das System nicht nur nach Gaspreisen, sondern weiß auch, dass es nach Region aggregiert und den Durchschnitt anzeigt. Sogar Folgefragen lassen sich problemlos stellen. Eine typische Frage lautet etwa: ‚Zeige mir die Verkaufszahlen meiner Produkte von diesem Quartal.‘ Automatisch werden die Ergebnisse angezeigt. Anschließend kann man direkt die Frage ‚Und von letztem?‘ stellen. Die Anwendung erkennt, dass es sich dabei um eine Anschlussfrage handelt, die sich ebenfalls auf ‚Verkaufszahlen‘ und ‚Quartal‘ bezieht. Vorteil: Die erste Frage muss nicht nochmal wiederholt und in Kontext gesetzt werden.
Natürlicher Umgang mit Daten
Diese Methode ermöglicht Nutzern eine natürlichere Interaktion mit ihren Daten. Damit der Dialog zwischen Mensch und Daten auch funktioniert, müssen auf Datenseite weiterhin die gleichen Voraussetzungen erfüllt sein, die für alle leistungsstarken Data-Analytics-Lösungen bestehen: Das Datenmaterial muss sauber aufbereitet sein für die Analyse. Insbesondere wenn Daten aus verschiedenen Quellen und Abteilungen stammen, benötigen diese eine gute Aufbereitung. Hier kann Technologie unterstützen, indem sie die Datenerfassung- und -aufbereitung automatisiert und so gleichzeitig Fehlerrisiken reduziert.
Kompetenzlücke schließen
Um Daten effektiv einsetzen zu können, müssen Unternehmen den Mitarbeitern ein grundlegendes Verständnis für die Bedeutung und Rolle von Daten in ihrem Unternehmen vermitteln. Laut einer Gartner Umfrage unter CDOs verfügen bis 2020 die Hälfte der Unternehmen nicht über ausreichende KI- und Datenkompetenzen, um damit einen zusätzlichen Geschäftswert zu erzielen. NLP hat das Potenzial, diese Kompetenzlücke zu schließen, die viele Unternehmen daran hindert, fortschrittliche Technologien wie Data Analytics geschäftsfördernd zu nutzen. Dabei geht es nicht darum, jeden Mitarbeiter in einen Data Scientist zu verwandeln. Die Verarbeitung natürlicher Sprache, wie sie mit Ask Data möglich ist, zielt vor allem darauf ab, die Einstiegsbarriere für alle Nicht-Datenexperten zu senken, um die Ergebnisse ihrer täglichen Arbeit zu verbessern.
Daten als Produkt
Hinzu kommt, dass sich immer mehr Produktionsunternehmen damit befassen, wie sich Daten monetarisieren lassen. Mit der intelligenten Nutzung von Daten lassen sich ganz neue Businessmodelle, Dienstleistungen und andere geschäftsfördernde Maßnahmen auf den Weg bringen. Hier nur ein Beispiel: Der Konzern General Electric bietet mit seiner IoT-Plattform Predix eine standardisierte Möglichkeit, industrielle Anwendungen in der Cloud zu entwickeln. Nutzer können dabei mit Tableau in Predix Echtzeitdaten in verwertbare Erkenntnisse umwandeln, indem sie Maschinen und Daten mit dem gesamten Unternehmen verbinden. Selfservice-Analytics und NLP ermöglichen also immer mehr Menschen, Daten zu erkunden und gegebenenfalls auch neue Geschäftsmodelle aus ihnen zu entwickeln.