- Anzeige -
- Anzeige -
- Anzeige -
- Anzeige -
Lesedauer: min
„Erkenntnisse sind Kerosin“

Sam George, Head of Azure IoT, Microsoft:

„Erkenntnisse sind Kerosin“

Bild: Microsoft GmbH

Wenn Daten das neue Öl sind, dann sind Erkenntnisse das Kerosin, sagt Sam George von Microsoft. Als Head of Azure IoT hat er die Aufgabe, Unternehmen zu solchem Erkenntnisgewinn zu verhelfen. Im Interview schildert George, welche Rolle dabei der industrielle Interoperabilitätsstandard OPC UA, die Pflege des Ökosystems und Microsofts eigener digitaler Wandel spielen.Microsoft ist einer der großen Player, wenn es um das Internet of Things geht. Warum dieses Engagement?

Sam George: Wir sind davon überzeugt, dass IoT, Edge und Cloud Computing sowie künstliche Intelligenz die Welt verändern. Das Internet of Things ist eine technologische Vorrausetzung für die digitale Reise unserer Kunden. In Zusammenarbeit mit unseren Partnern bieten wir eine umfangreiche Plattform für IoT-Lösungen an, damit unsere Kunden schneller vorankommen. Mit Azure IoT haben wir dazu im Laufe der letzten fünf Jahre eine sehr große Angebotspalette entwickelt, die von winzigen, vernetzten Mikrocontroller-Geräten mit Azure Sphere bis hin zur lokal installierten Komplettlösung mit Azure Stack reicht. Dabei sehen wir das Bedürfnis der Unternehmen, bei IoT-Lösungen ein ausgewogenes Verhältnis von lokaler Ebene und der Cloud herzustellen.

Aus Ihrem ERP-Geschäft schien vor einigen Jahren das Signal zu kommen, Microsoft fahre einen Cloud-only-Kurs. Gab es einen Wandel in der Microsoft Cloud-strategie?

George: Seit wir mit unserer Cloud auf den Markt kamen, haben wir uns immer auf Hybrid-Infrastrukturen konzentriert. So ließ sich z.B. unser lokales Azure Active Directory in die Cloud projizieren. Wir haben auch die lokale SQL-Datenbank befähigt, eine Verbindung zu Cloud SQL herzustellen. Es gab also eine Reihe hybrider Möglichkeiten, aber was Sie sagen, ist trotzdem nicht ganz falsch. In den letzten Jahren haben wir unseren Fokus auf lokale Lösungen verstärkt. Zum einen läuft Azure selbst auf lokaler Ebene, wir unterstützen Edge Computing mit unserer containerbasierten Laufzeitumgebung, die zusätzlich Open Source ist. All das ermöglicht unseren Kunden, ihre eigenen Dienste oder Azure-Services in ihrer Werkhalle zu nutzen, ohne permanent mit der Microsoft Cloud-Plattform Azure verbunden zu sein. Wir unterstützen Tausende von zertifizierten IoT-Geräten und jedes Betriebssystem, das im IoT wichtig ist. Wir haben Open Source Kits für alle Programmiersprachen. Also ja, bei Microsoft gab es in den letzten Jahren eine neue Ausrichtung zu Cloud und Lokal.

Wie adressiert Microsoft den rasant wachsenden Markt für IoT-Lösungen?

George: Zunächst haben wir eine breite Palette von plattformgetriebenen Funktionalitäten in Azure und allen Microsoft-Produkten. Wir haben Expertenteams für die verschiedenen Branchen, etwa Produktion, Handel, Energie, Automotive, Life Sciences und weitere. Und dann haben wir natürlich Teams, die vor Ort mit unseren Kunden im Dialog stehen.

Welche Rolle spielt dabei Ihr Ökosystem?

George: Wenn Sie bedenken, wie die neuen Technologien die Unternehmen weltweit verändern, funktioniert das nur mit einem vielfältigen Partnerökosystem. Alles, was wir an unserer IoT- und Edge-Plattform entwickelt haben, haben wir mit unseren Kunden und Partnern gemeinsam entwickelt. Bei künstlicher Intelligenz machen wir es genauso. Wir erfinden nicht einfach etwas in der Hoffnung, dass es später jemand braucht. Wir gestalten es von Grund auf gemeinsam. Das ist heute ein Teil unseres Leistungsversprechens. Microsoft durchlief selbst eine digitale Transformation. Früher haben wir Software-CDs in Pappschachteln verkauft, heute verkaufen wir Cloud-Dienstleistungen. Ich bin seit 20 Jahren dabei und habe das miterlebt. Es war schwierig, kann ich Ihnen sagen. Viele Firmen stehen heute dort, wo wir damals standen. Mit unseren eigenen Erfahrungen haben wir eine besondere Perspektive, um sie optimal unterstützen zu können. Auf dieser Grundlage wollen wir ein vertrauenswürdiger und zuverlässiger Partner sein. Lassen Sie mich als Beispiel unser Co-Sell-Programm nennen, das in der Branche einzigartig ist: Wenn einer unserer Partner eine Lösung auf Basis unserer Services aufsetzt und in das Vertriebsprogramm einschreibt, wird unser Außendienst diese Partnerlösung bei seinen Kunden vertreiben. Unser Ziel: Für jeden Dollar, den wir verdienen, sollen unsere Partner fünf verdienen.

Welche Rolle spielt OPC UA in Ihrer Strategie?

George: Unser CEO Satya Nadella sieht die Mission von Microsoft darin, Intelligenz sowohl in die Cloud, als auch an den Netzwerkrand (Edge) zu bringen. Also Daten an beiden Standorten verarbeiten zu können. Dafür sind offene Standards und Interoperabilität absolut entscheidend, gerade in der Fertigung. Wir sind ein Mitglied der ersten Stunde in der OPC Foundation. Da sich Microsoft schon sehr lange mit dem Internet of Things beschäftigt, haben wir den Stellenwert von OPC UA schon mit dem Startschuss erkannt. Seitdem haben unsere Entwicklerteams mehr als viereinhalb Millionen Zeilen frei verfügbaren Open-Source-Code beigetragen, um die Interoperabilität zwischen Industrieanlagen herzustellen. Damit sind wir Spitzenreiter unter den Mitwirkenden der OPC Foundation. Wir sind auch der einzige Cloudanbieter, der durchgängig auf OPC UA standardisiert, also auf der Edge, in die Cloud und auch wieder zurück. Auf der Hannover Messe haben wir die Open Manufacturing Platform mit unserem Partner BMW vorgestellt. Diese Plattform basiert ebenfalls auf offenen Standards wie OPC UA. Wenn Sie als Hersteller verschiedene Anlagen von verschiedenen Maschinenbauern mit deren unterschiedlichen Lösungen betreiben, wie es normalerweise der Fall ist, endet das schnell in einer Reihe von proprietären Datensilos. Als Herstelller streben Sie aber nach einem einheitlichen, offenem Datenmodel und dazugehörigem Datenstrom aller Anlagen und Systeme an, egal von welchem Anbieter sie kommen und egal ob sie neu oder dreißig Jahre alt sind. Mit unserer Plattform fördern wir den offenen Datenaustausch zwischen all diesen Anlagen und Systemen. Erst so werden Effizienzsteigerung- oder Wartungs-Szenarien ermöglicht.

BMW kann seine Produktionsdaten auch ohne eine offene Plattform auswerten und könnte seine Zulieferer wohl meist dazu bringen, auch ihre Daten mit BMW zu teilen. Woher kommt der Geist von Offenheit in dieser Partnerschaft?

George: BMW arbeitet natürlich mit vielen Maschinenbauern zusammen und sie sehen heute ebenso wie wir diesen Bedarf an offenen Lösungen anstatt geschlossener Daten-Silos. Zudem ist diese Kooperation erst der Anfang, weitere Partner werden folgen. BMW und Microsoft verbindet die Erkenntnis, dass nicht nur die Verfügbarkeit offener Standards wichtig ist, sondern vor allem deren Integration in Produkte und Dienste. Damit das auch geschieht, werden beide Unternehmen Entwickler abstellen, an solchen offenen Lösungen und an Möglichkeiten zum offenen Datenaustausch zu arbeiten. Wir lassen unseren Worten Taten folgen.

Sie sind auch Mitglied im Industrial Internet Consortium, dass weitgehend von amerikanischen Unternehmen geprägt wird. Das IIC versuchte vor einigen Jahren, die Netzwerk-Middleware Distribution Data Service (DDS) voranzubringen, scheinbar als Alternative zu OPC UA.

George: Normungsgremien sind Orte für offene Diskussionen. In diesem Fall denke ich, dass sich um OPC UA ein enormes Momentum gebildet hat, das noch wächst. Letztendlich hat sich auch beim IIC die Erkenntnis durchgesetzt, dass OPC UA für das herstellende Gewerbe einfach der richtige Standard für Interoperabilität ist, das haben sie ja auch schon mehrfach in ihren Veröffentlichungen beschrieben.

Manche kritisieren an OPC UA, dass der Protokoll-Stack aus Sicht der Automatisierungstechnik Grenzen aufweist.

George: Wie jeder sich gerade entwickelnde Standard wird auch dieser ständig mit neuen Fähigkeiten ausgestattet. Bei unseren Kunden beobachten wir immer ausgefeiltere IoT-Lösungen. Am Anfang geht es oft um die Vernetzung und das Monitoring von Maschinen, später darum, einen Überblick über Anlageneffizienz und Prozesse zu gewinnen. Ab hier fangen Unternehmen an, mehr aus ihren Daten herauszuholen. Sie analysieren und verbessern – mit positiven Auswirkungen auf die operative Effizienz – ihre Abläufe. In einer noch späteren Phase auf ihrer IoT-Reise schauen unsere Kunden, wie sie aus den gewonnenen Erkenntnissen neue Geschäftsmodelle ableiten können, neue Produkte und Dienstleistungen. Sie realisieren, wie wertvoll ihre Daten wirklich sind. Und wie sie diese auch in Partnerschaften mit anderen Unternehmen und Geschäftsbereichen besser nutzen könnten. Wenn also Daten das neue Öl sind, sind solche, zunehmend KI-basierten, Erkenntnisse das Kerosin. Um aber zu wirklich tiefgreifenden Einblicken zu gelangen, reichen Silodaten einfach nicht aus. Sie brauchen eine Datenintegration entlang der gesamten Lieferkette bis hin zu ihren eigenen Geschäftsprozessen. Firmen wie Microsoft reizen die heute existierenden Möglichkeiten bis zu ihren Grenzen aus. Um also Ihre Frage zu beantworten: Die offenen Standards werden an und mit den tatsächlichen Bedürfnissen und neuen technologischen Möglichkeiten der Unternehmen wachsen.

Und wie werden sich diese entwickeln?

George: Wir sehen Technologien wie die Entwicklung digitaler Repräsentationen physikalischer Dinge, die wir Digital Twins nennen, als grundlegenden Teil der nächsten Entwicklungsstufe im IoT. IoT und Edge Computing werden mit künstlicher Intelligenz verschmelzen. Dann können Sie jede physische Umgebung vernünftig modellieren, um Vergangenes zu dokumentieren und Zukünftiges vorherzusagen. Wir sehen eine Welt, in der künstliche Intelligenz Unternehmen weitreichend unterstützt, und in der wir es ihnen erheblich erleichtern, diese Unterstützung in Anspruch zu nehmen. Wir legen großen Wert auf die Einfachheit und die Demokratisierung komplexer Technologien. So haben wir z. B. im vergangenen Jahr Azure IoT Central eingeführt, ein SaaS-Angebot, um IoT-Anwendungen noch schneller bereitzustellen. Daran können Sie Ihre Geräte anschließen und noch am selben Tag produktiv gehen. Vor zwei Jahren hätte es noch Wochen gedauert, bis man alles zusammen gehabt hätte. Diese Möglichkeit steht sowohl Kunden als auch Partnern zur Verfügung. Ein starker Antrieb von uns ist, die heute verfügbaren Lösungen zugänglicher zu machen, um schneller als je zuvor Innovationen zu ermöglichen.

Vielen Dank für das Gespräch.

Autor:
Firma:
- Anzeige -

News

- Anzeige -

Weitere Beiträge

Das könnte Sie auch interessieren

Wie KI in der Krise Wirtschaftsleistung unterstützen kann

Künstliche Intelligenz hat einen großen Einfluss auf die Zeit in der Corona-Krise, aber auch nach der Krise ist sie sehr hilfreich. Claudia Bünte ist Expertin auf dem Gebiet der KI und Professorin für ‚International Business Administration‘ mit Schwerpunkt Marketing an der SRH in Berlin. 2016 gründete sie die Marketingberatung ‚Kaiserscholle – Center of Marketing Excellence‘ und berät Top-Manager in Kernfragen der Markenführung und des Marketings.

mehr lesen

Digitalisierung und künstliche Intelligenz optimieren Prozessanlagen

Digitalisierung und künstliche Intelligenz (KI) eröffnen auch in der Prozessautomatisierung Perspektiven für Einsparungen in allen Phasen des Lebenszyklus einer Anlage. Schon verfügbar ist ein digitales Feldgerät, das Festo Motion Terminal VTEM. Auch Dashboards von Festo visualisieren Anlagenzustände und selbst künstliche Intelligenz ist in der Prozessautomatisierung keine ferne Zukunftsmusik mehr.

mehr lesen

Künstliche Intelligenz gezielt in der Wertschöpfung einsetzen

Die Wettbewerbsfähigkeit deutscher produzierender Unternehmen hängt heute mehr denn je von der Fähig-keit ab, komplexen Herausforderungen wie volatilen Märkten effektiv zu begegnen. Insbesondere im industri-ellen Kontext ergeben sich durch eine stetig wachsende Datenverfügbarkeit sowie verbesserte Analysemög-lichkeiten erhebliche Potenziale: „Artificial Intelligence“ (AI), zu Deutsch „Künstliche Intelligenz“ (KI), ermög-licht die Verarbeitung großer Datenmengen und kann dabei helfen, Prognosen abzuleiten und die Entschei-dungsfindung zu erleichtern. Um diese Potenziale abrufen zu können, müssen Unternehmen befähigt wer-den, Künstliche Intelligenz in der Wertschöpfung gezielt einzusetzen.

mehr lesen

Quantensprung für die künstliche Intelligenz

Quantencomputer werden die künstliche Intelligenz und das Maschinelle Lernen tiefgreifend verändern und völlig neue Anwendungsmöglichkeiten erschließen. In einer Studie erläutern Experten der Fraunhofer-Allianz Big Data und künstliche Intelligenz gemeinsam mit wissenschaftlichen Partnern, wie Quantencomputer Verfahren des Maschinellen Lernens beschleunigen können und welche Potenziale ihr Einsatz in Industrie und Gesellschaft mit sich bringen wird. Die Studie stellt grundlegende Konzepte und Technologien des Quantencomputings vor, analysiert die aktuelle Forschungs- und Kompetenzlandschaft und zeigt Marktpotenziale auf.

mehr lesen

KI-Studie 2020: Das Fremdeln des Top-Managements mit KI

Künstliche Intelligenz ist eine wichtige Technologie, von der sich Unternehmen handfeste Wettbewerbsvorteile versprechen. Das ist das Ergebnis einer aktuellen Studie des IT-Dienstleisters Adesso unter Führungskräften. Konkrete Projekte haben allerdings bislang nur wenige Firmen umgesetzt. Besonders zurückhaltend zeigt sich bei dem Thema das Top-Management.

mehr lesen

Schutz der Privatsphäre und KI in Kommunikationssystemen

Alle zwei Jahre vergeben der VDE, die Deutsche Telekom sowie die Städte Friedrichsdorf und Gelnhausen den mit 10.000 Euro dotierten Johann-Philipp-Reis-Preis an einen Nachwuchswissenschaftler. Dieses Jahr geht er an Prof. Dr.-Ing. Delphine Reinhardt von der Georg-August-Universität Göttingen und an Dr.-Ing. Jakob Hoydis von den Nokia Bell Labs in Nozay, Frankreich. Die beiden Preisträger teilen sich die Auszeichnung und damit das Preisgeld.

Infor bringt Infor Coleman AI auf den Markt

Infor, Anbieter von branchenspezifischer Business-Software für die Cloud, hat bekanntgegeben, dass die Plattform Infor Coleman AI für Embedded-Machine-Learning-Modelle ab sofort verfügbar ist. Sie bietet die Geschwindigkeit, Wiederholbarkeit und Personalisierung, die Unternehmen benötigen, um KI vollständig zu operationalisieren.