- Anzeige -
- Anzeige -
- Anzeige -
- Anzeige -
Lesedauer: min
Der digitale Zwilling im Fahrzeugbau

Wie mit Daten die Entwicklung beschleunigt werden kann

Der digitale Zwilling im Fahrzeugbau

Bild: ©rook76/Fotolia.de

Fahrzeugbauer erhalten Erkenntnisse über die Qualität und Fahrverhalten neuer Automodelle unter Realbedingungen. Die dabei gesammelten Daten bilden jedoch immer häufiger die Basis für virtuelle Testumgebungen: Digitale Zwillinge erlauben die virtuelle Berechnung von Fahrphysik sowie einzelner Fahrzeugkomponenten bis hin zur Simulation ganzer Fahrereignisse. Moderne Data-Processing-Verfahren sind dabei nicht nur unabdingbar. Auf Grundlage der Datenauswertung kann das Fahrerlebnis optimiert und die Wartung erleichtert werden. Das Potenzial von Big Data aus dem PKW reicht bis hin zur Unterstützung autonomer Mobilitätsszenarien.


Je intelligenter – und damit in der gewünschten Konsequenz auch autonomer – Fahrzeuge und ihre On-Board-Systeme werden, umso mehr tritt auch das Thema Softwareentwicklung für die Automotive-Branche in den Fokus. Schon heute liegen Unmengen an digitalen Informationen vor, die von modernen Fahrzeugen produziert werden und deren Umfang künftig sicherlich weiterwachsen wird. Damit sind Themen wie Software Development, Machine Learning und Data Processing auch bei den Fahrzeugherstellern längst erfolgskritische Größen. Werden Informationen zum physischen Fahrverhalten des PKW unter verschiedensten Witterungsbedingungen und den Metadaten aus Design, Produktion und After-Sales mit synthetischen Ereignismodellen integriert, entstehen Simulationsumgebungen, die hohe Anforderungen an die Datenverarbeitung stellen. Die gute Nachricht ist, dass parallel zur schieren Datenmasse allerdings auch die Möglichkeiten zur Verarbeitung von Big Data wachsen.

Deutliche Effizienzsteigerungen im Messdatenmanagement

Gigantische Datenvolumina aus dem Auto, darunter auch non-binäre Signaldaten, lassen sich inzwischen besser und schneller parallel übertragen. Eine unabhängige Analyse unterschiedlichster Datenquellen, -typen und -klassen ist damit ebenfalls realisierbar. Ausgereifte Signal-Processing-Verfahren sorgen dafür, dass Daten auf bis zu zehn Prozent des ursprünglichen Volumens reduziert werden und die Datenbereitstellung daher mittlerweile um den Faktor 40 im Vergleich zu bisher eingesetzten Standardverfahren beschleunigt werden kann. Intelligente Big-Data-Verfahren haben gelernt, sowohl die immensen Datenmengen aus der Fahrzeugsensorik, als auch die dazugehörigen Backend-Logdateien flexibel und effizient zu verarbeiten. Damit können die Analyse und Auswertung von Testkennzahlen sowie die Ergebnisse aus Prüfstands-Experimenten mit einem zunehmend höheren Automatisierungsgrad durchgeführt werden. Der Einsatz von sogenannten Digitalen Mock-Ups (DMUs), also eines virtuellen Spiegelbilds des zugehörigen Fahrzeug-Backends, liefert stichhaltige Analysen, ohne ein neues Gerät direkt mit dem Fahrzeug in der Praxis testen zu müssen.

Unterschiedliche Formate verlangen nach einheitlicher Kodierung

Lange Zeit bestand im Messdatenmanagement die wesentliche Herausforderung darin, unterschiedliche Aufzeichnungsformate unter einen Hut zu bekommen und damit eine parallele Datenübertragung zu ermöglichen. Datentypen wie etwa ASAM MDF oder ATFX konnten für eine parallele Verarbeitung nicht genutzt werden. Diese Problematik wurde vor allem durch die Format- und Kodierungswechsel einzelner Samples hervorgerufen – ein Phänomen, das entsteht, wenn Signale aus den Sensoren und Geräten mit unterschiedlichen Nachrichtentypen und -frequenzen aufgezeichnet werden. Big Data Frameworks wie Hadoop können die strukturelle Heterogenität der Momentaufnahmen aus den Sensor-Clustern und Statusberichten der einzelnen Geräte kaum handhaben. Neuartige Verfahren, wie etwa Norcom Dasense oder Big Data Signal Processing (BDSP), schlüsseln die Simulationsdateien MDF4, DAT oder CSV oder die Trace-Formate ASC, ATFX, ADTF und VPCAP auf und wandeln sie in verteilte Formate wie beispielsweise ORC oder Parquet um. Sowohl die Transkodierung als auch die Analyse der Messdaten finden in einem skalierbaren Computer-Cluster statt – so können auch ad hoc schnell große Datenvolumen abgearbeitet werden. Die Reduzierung der Originaldaten auf zehn Prozent ihrer ursprünglichen Größe ist im Wesentlichen durch zwei Faktoren möglich: Zum einen verzichtet BDSP auf die Sample-basierte Darstellung der ursprünglichen Messdaten; zum anderen werden Signalredundanzen minimiert. Ein weiterer Vorteil einer intelligenten Transkodierung liegt darin, dass die umgewandelten Big-Data-Formate gleich die nötigen Berechnungsvorschriften erfüllen, um Analysen auf möglichst vielen Maschinen parallel durchführen zu können. Typische Engineering-Fragestellungen zu Steuerprozessen, On-Board-Funktionen und Fahrzeugverhalten können so binnen weniger Minuten beantwortet werden.

Seiten: 1 2Auf einer Seite lesen

Autor:
Firma:
- Anzeige -

News

- Anzeige -

Weitere Beiträge

Das könnte Sie auch interessieren

Wie KI in der Krise Wirtschaftsleistung unterstützen kann

Künstliche Intelligenz hat einen großen Einfluss auf die Zeit in der Corona-Krise, aber auch nach der Krise ist sie sehr hilfreich. Claudia Bünte ist Expertin auf dem Gebiet der KI und Professorin für ‚International Business Administration‘ mit Schwerpunkt Marketing an der SRH in Berlin. 2016 gründete sie die Marketingberatung ‚Kaiserscholle – Center of Marketing Excellence‘ und berät Top-Manager in Kernfragen der Markenführung und des Marketings.

mehr lesen

Digitalisierung und künstliche Intelligenz optimieren Prozessanlagen

Digitalisierung und künstliche Intelligenz (KI) eröffnen auch in der Prozessautomatisierung Perspektiven für Einsparungen in allen Phasen des Lebenszyklus einer Anlage. Schon verfügbar ist ein digitales Feldgerät, das Festo Motion Terminal VTEM. Auch Dashboards von Festo visualisieren Anlagenzustände und selbst künstliche Intelligenz ist in der Prozessautomatisierung keine ferne Zukunftsmusik mehr.

mehr lesen

Künstliche Intelligenz gezielt in der Wertschöpfung einsetzen

Die Wettbewerbsfähigkeit deutscher produzierender Unternehmen hängt heute mehr denn je von der Fähig-keit ab, komplexen Herausforderungen wie volatilen Märkten effektiv zu begegnen. Insbesondere im industri-ellen Kontext ergeben sich durch eine stetig wachsende Datenverfügbarkeit sowie verbesserte Analysemög-lichkeiten erhebliche Potenziale: „Artificial Intelligence“ (AI), zu Deutsch „Künstliche Intelligenz“ (KI), ermög-licht die Verarbeitung großer Datenmengen und kann dabei helfen, Prognosen abzuleiten und die Entschei-dungsfindung zu erleichtern. Um diese Potenziale abrufen zu können, müssen Unternehmen befähigt wer-den, Künstliche Intelligenz in der Wertschöpfung gezielt einzusetzen.

mehr lesen

Quantensprung für die künstliche Intelligenz

Quantencomputer werden die künstliche Intelligenz und das Maschinelle Lernen tiefgreifend verändern und völlig neue Anwendungsmöglichkeiten erschließen. In einer Studie erläutern Experten der Fraunhofer-Allianz Big Data und künstliche Intelligenz gemeinsam mit wissenschaftlichen Partnern, wie Quantencomputer Verfahren des Maschinellen Lernens beschleunigen können und welche Potenziale ihr Einsatz in Industrie und Gesellschaft mit sich bringen wird. Die Studie stellt grundlegende Konzepte und Technologien des Quantencomputings vor, analysiert die aktuelle Forschungs- und Kompetenzlandschaft und zeigt Marktpotenziale auf.

mehr lesen

KI-Studie 2020: Das Fremdeln des Top-Managements mit KI

Künstliche Intelligenz ist eine wichtige Technologie, von der sich Unternehmen handfeste Wettbewerbsvorteile versprechen. Das ist das Ergebnis einer aktuellen Studie des IT-Dienstleisters Adesso unter Führungskräften. Konkrete Projekte haben allerdings bislang nur wenige Firmen umgesetzt. Besonders zurückhaltend zeigt sich bei dem Thema das Top-Management.

mehr lesen

Schutz der Privatsphäre und KI in Kommunikationssystemen

Alle zwei Jahre vergeben der VDE, die Deutsche Telekom sowie die Städte Friedrichsdorf und Gelnhausen den mit 10.000 Euro dotierten Johann-Philipp-Reis-Preis an einen Nachwuchswissenschaftler. Dieses Jahr geht er an Prof. Dr.-Ing. Delphine Reinhardt von der Georg-August-Universität Göttingen und an Dr.-Ing. Jakob Hoydis von den Nokia Bell Labs in Nozay, Frankreich. Die beiden Preisträger teilen sich die Auszeichnung und damit das Preisgeld.

Infor bringt Infor Coleman AI auf den Markt

Infor, Anbieter von branchenspezifischer Business-Software für die Cloud, hat bekanntgegeben, dass die Plattform Infor Coleman AI für Embedded-Machine-Learning-Modelle ab sofort verfügbar ist. Sie bietet die Geschwindigkeit, Wiederholbarkeit und Personalisierung, die Unternehmen benötigen, um KI vollständig zu operationalisieren.