Schnelle Time-to-Market durch Simulation
Es liegt noch nicht lange zurück, da wurden Fahrzeugbauteile, Steuerungseinheiten und die dazugehörige Software in oft monatelangen Verfahren auf vielen Tausend Kilometern Teststrecke erprobt, datentechnisch erfasst und anschließend ausgewertet. Die Optimierung der Prototypen bis hin zum finalen Feinschliff ist ein iterativer Optimierungsprozess, der zeit- und kostenintensiv ist. Durch den Einsatz von digitalen Zwillingen, also den virtuellen Abbildern von Echtfahrzeugen mitsamt all ihren Bauteilen, ist es heute möglich, Fahrzeugkomponenten in simulierten Umgebungen auf Herz und Nieren zu testen. Für das Entwicklerteam bringt die Arbeit mit digitalen Zwillingen und Backend-DMUs enorme Zeitersparnisse mit sich – ein wichtiger Aspekt im Hinblick auf eine möglichst kurze Time-to-Market. Darüber hinaus tragen derartige Simulationsumgebungen dazu bei, die Testabdeckung trotz der Reduzierung realer Testfahrten zu erhöhen und damit die Sicherheits- und Qualitätskennzahlen zu verbessern.
Beste Voraussetzungen für autonomes Fahren
Ein weiteres Feld, in dem eine schnelle und effektive Verarbeitung von Big Data eine treibende Kraft ist, eröffnet sich mit der Entwicklung autonomer Fahrkonzepte sowohl für den Personen- als auch für den Güterverkehr. Ein intensiv debattiertes Thema – während Visionäre die Revolution des Personentransports heraufbrechen sehen, ist das Thema Sicherheit nach wie vor der größte Hemmschuh. Um Szenarien wie das selbstgesteuerte Automobil und eine dienstleistungszentrierte Nutzung von autonomen Fahrzeugen zu ermöglichen, müssen unbemannte Mobilitätsangebote deshalb so sicher und zuverlässig wie nur irgend möglich sein. Die Auswertung von physischen Informationen zur Fahrzeugnutzung und Fahrzeugeigenschaften ist dabei von ebenso großer Bedeutung wie die Identifizierung und Interpretation von Ereignissen und Situationen im Straßenverkehr. Eine unverzichtbare Funktion, die jedes selbstfahrende Auto mit absoluter Präzision erfüllen muss – und die nur durch eine schnelle, skalierbare und maximal ausfallsichere Verarbeitung von unterschiedlichsten Daten realisierbar ist.