Gerotor startet KI-Forschungsprojekt für Energiespeicher...

Bild: ©rook76/Fotolia.de
Fahrzeugbauer erhalten Erkenntnisse über die Qualität und Fahrverhalten neuer Automodelle unter Realbedingungen. Die dabei gesammelten Daten bilden jedoch immer häufiger die Basis für virtuelle Testumgebungen: Digitale Zwillinge erlauben die virtuelle Berechnung von Fahrphysik sowie einzelner Fahrzeugkomponenten bis hin zur Simulation ganzer Fahrereignisse. Moderne Data-Processing-Verfahren sind dabei nicht nur unabdingbar. Auf Grundlage der Datenauswertung kann das Fahrerlebnis optimiert und die Wartung erleichtert werden. Das Potenzial von Big Data aus dem PKW reicht bis hin zur Unterstützung autonomer Mobilitätsszenarien.
Je intelligenter – und damit in der gewünschten Konsequenz auch autonomer – Fahrzeuge und ihre On-Board-Systeme werden, umso mehr tritt auch das Thema Softwareentwicklung für die Automotive-Branche in den Fokus. Schon heute liegen Unmengen an digitalen Informationen vor, die von modernen Fahrzeugen produziert werden und deren Umfang künftig sicherlich weiterwachsen wird. Damit sind Themen wie Software Development, Machine Learning und Data Processing auch bei den Fahrzeugherstellern längst erfolgskritische Größen. Werden Informationen zum physischen Fahrverhalten des PKW unter verschiedensten Witterungsbedingungen und den Metadaten aus Design, Produktion und After-Sales mit synthetischen Ereignismodellen integriert, entstehen Simulationsumgebungen, die hohe Anforderungen an die Datenverarbeitung stellen. Die gute Nachricht ist, dass parallel zur schieren Datenmasse allerdings auch die Möglichkeiten zur Verarbeitung von Big Data wachsen.
Gigantische Datenvolumina aus dem Auto, darunter auch non-binäre Signaldaten, lassen sich inzwischen besser und schneller parallel übertragen. Eine unabhängige Analyse unterschiedlichster Datenquellen, -typen und -klassen ist damit ebenfalls realisierbar. Ausgereifte Signal-Processing-Verfahren sorgen dafür, dass Daten auf bis zu zehn Prozent des ursprünglichen Volumens reduziert werden und die Datenbereitstellung daher mittlerweile um den Faktor 40 im Vergleich zu bisher eingesetzten Standardverfahren beschleunigt werden kann. Intelligente Big-Data-Verfahren haben gelernt, sowohl die immensen Datenmengen aus der Fahrzeugsensorik, als auch die dazugehörigen Backend-Logdateien flexibel und effizient zu verarbeiten. Damit können die Analyse und Auswertung von Testkennzahlen sowie die Ergebnisse aus Prüfstands-Experimenten mit einem zunehmend höheren Automatisierungsgrad durchgeführt werden. Der Einsatz von sogenannten Digitalen Mock-Ups (DMUs), also eines virtuellen Spiegelbilds des zugehörigen Fahrzeug-Backends, liefert stichhaltige Analysen, ohne ein neues Gerät direkt mit dem Fahrzeug in der Praxis testen zu müssen.
Lange Zeit bestand im Messdatenmanagement die wesentliche Herausforderung darin, unterschiedliche Aufzeichnungsformate unter einen Hut zu bekommen und damit eine parallele Datenübertragung zu ermöglichen. Datentypen wie etwa ASAM MDF oder ATFX konnten für eine parallele Verarbeitung nicht genutzt werden. Diese Problematik wurde vor allem durch die Format- und Kodierungswechsel einzelner Samples hervorgerufen – ein Phänomen, das entsteht, wenn Signale aus den Sensoren und Geräten mit unterschiedlichen Nachrichtentypen und -frequenzen aufgezeichnet werden. Big Data Frameworks wie Hadoop können die strukturelle Heterogenität der Momentaufnahmen aus den Sensor-Clustern und Statusberichten der einzelnen Geräte kaum handhaben. Neuartige Verfahren, wie etwa Norcom Dasense oder Big Data Signal Processing (BDSP), schlüsseln die Simulationsdateien MDF4, DAT oder CSV oder die Trace-Formate ASC, ATFX, ADTF und VPCAP auf und wandeln sie in verteilte Formate wie beispielsweise ORC oder Parquet um. Sowohl die Transkodierung als auch die Analyse der Messdaten finden in einem skalierbaren Computer-Cluster statt – so können auch ad hoc schnell große Datenvolumen abgearbeitet werden. Die Reduzierung der Originaldaten auf zehn Prozent ihrer ursprünglichen Größe ist im Wesentlichen durch zwei Faktoren möglich: Zum einen verzichtet BDSP auf die Sample-basierte Darstellung der ursprünglichen Messdaten; zum anderen werden Signalredundanzen minimiert. Ein weiterer Vorteil einer intelligenten Transkodierung liegt darin, dass die umgewandelten Big-Data-Formate gleich die nötigen Berechnungsvorschriften erfüllen, um Analysen auf möglichst vielen Maschinen parallel durchführen zu können. Typische Engineering-Fragestellungen zu Steuerprozessen, On-Board-Funktionen und Fahrzeugverhalten können so binnen weniger Minuten beantwortet werden.
Gerotor startet KI-Forschungsprojekt für Energiespeicher...
Neues Fraunhofer-Institut für Kognitive Systeme IKS Mit...
Agrikultur-App-Entwickler erhält 6,6Mio.€ Plantix, das in...
'Knowledge4Retail' künstliche Intelligenz für den...
Statusreport 'Maschinelles Lernen' Die industrielle...
Intersec Forum: Vernetzung bringt die KI ins Gebäude Die...
KI in der Industrie 4.0 braucht den Faktor Mensch Der...
Intelligente Automatisierung in Energie- und...
Ökosystem für integrierte Beschaffung Hardware für...
Plattform Lernende Systeme gibt Überblick Landkarte für...
KI-Fachbegriffe verständlich erklärt Die Bundesregierung...
AI at the EdgeProgrammierung von AI-Lösungen unter...
Intersec Forum: Vernetzung bringt die KI ins Gebäude Die Vernetzung der gebäudetechnischen Gewerke mit moderner Sicherheitstechnik geht in die nächste Runde: Erste Forschungsprojekte und Anwendungsplattformen ermöglichen richtungsweisende Aussagen für den Nutzen in...
Pünktlich im Wissenschaftsjahr der Künstlichen Intelligenz (KI) erklärt Professor Klaus Henning in seinem neuen Sachbuch, wie künstliche Intelligenz unser Leben verändert.
Was ist künstliche Intelligenz? Anspruchsvolle Probleme einfach per KI lösen Kaum eine Digitalstrategie kommt heutzutage ohne künstliche Intelligenz aus. Doch was zeichnet eine KI aus und wo kommt sie zum Einsatz? Künstliche Intelligenz ist ein Zweig der Informatik,...
Volle Auftragsbücher und trotzdem insolvent – dieses Schicksal kann selbst stabile Unternehmen ereilen, wenn ihre Großkunden nicht pünktlich zahlen. Dabei lässt sich die Liquidität sichern, wenn rechtzeitig die richtigen Infos bereitstehen. Machine Learning macht genau das jetzt automatisiert möglich.
Europa zwischen den Weltmächten China und die USA im Wettlauf um die mächtigsten KI-Anwendungen In die Entwicklung von KI-Anwendungen fließen weltweit Multi-Milliarden-Dollar-Beträge. Ganz vorne dabei: Die großen Plattform-Betreiber aus den USA und China. In weiten...
Vor einem Jahr hat die Bundesregierung ihre Strategie Künstliche Intelligenz beschlossen. Das Ziel: Die weitere Entwicklung und Anwendung von Künstlicher Intelligenz ganzheitlich politisch zu gestalten. Nun zog man seitens der Regierung eine Zwischenbilanz.
Intelligent Automation steht für eine neue Stufe in der Zusammenarbeit von Mensch und Maschine. Smarte Automatisierung verändert mithilfe von KI und Analytics die Geschäftsprozesse in Unternehmen grundlegend. Für die aktuelle Studie hat Deloitte weltweit Unternehmen befragt: Wie skalieren sie ihre Automatisierungsstrategie erfolgreich? Und sind sie bereit, menschliche und maschinelle Intelligenz zu kombinieren, um das volle Potential der neuen Technologie zu schöpfen?
Künstliche Intelligenz und das Internet of Things sind für sich alleine schon faszinierende Technologien. Werden beide kombiniert, eröffnet dies neue Anwendungszenarien für die Optimierung von Geschäftsprozessen. Dabei sammelt das IoT die Daten, während die KI sie verarbeitet, um ihnen Bedeutung zu verleihen.
Anomaly Detection Anomalien einfach und zielsicher mit wenigen Bildern erkennen Deep-Learning-Verfahren werden sowohl für die Identifikation von Objekten als auch für die Detektion von Fehlern eingesetzt. Mit der Anomaly Detection in Halcon 19.11 lassen sich nun auch...
Autonomes Fahren Mehr Speicher für mehr Daten Künstliche Intelligenz spielt bei der Zukunft der Mobilität eine große Rolle, da Fahrzeuge immer abhängiger von immer mehr Daten werden. Dies erfordert neue Speicherlösungen, die es ermöglichen, Daten nahtlos zwischen...
Der Elektronikhersteller E.D.&A. setzt neuronale Netzwerke ein, um seine elektronischen Steuerungen intelligenter zu gestalten. Binäre neuronale Netzwerke sind für die Erkennung von Mustern sehr gut geeignet und können daher eingesetzt werden, um Probleme anders anzugehen.
Ethik und künstliche Intelligenz Wer macht die Spielregeln für die KI? Meistens wird künstliche Intelligenz in Bezug auf ihren Nutzen diskutiert, während mögliche Risiken allenfalls beiläufig erwähnt werden. Doch die autonomen Systemen haben das Potenzial, auf die...
Gerotor startet KI-Forschungsprojekt für Energiespeicher...
Neues Fraunhofer-Institut für Kognitive Systeme IKS Mit...
Agrikultur-App-Entwickler erhält 6,6Mio.€ Plantix, das in...
'Knowledge4Retail' künstliche Intelligenz für den...
Statusreport 'Maschinelles Lernen' Die industrielle...
Intersec Forum: Vernetzung bringt die KI ins Gebäude Die...
Grußwort zur SPS-Messe: SPS, die 30. In wenigen Tagen...
Erfolgreiche AI for Laser Conference Am 6. und 7. November...
Zebra erwirbt Cortexica Vision Systems Zebra Technologies,...
SmartFactory-KL stelltProduction Level 4 vor Die...
Lösung für KI-basierte Logistikoptimierung mit...
Smart Steel Technologies erhält 2,1 Mio. Euro zum Ausbau...
TU Ilmenau startet Zentrum für Lernende Systeme und...
Mehrheitsbeteiligung Contact Software steigt bei Isko...
Fraunhofer-Gesellschaft tritt Cyber Valley bei Die...
QSC erwirbt Anteile an aiXbrain Die QSC AG hat 25,1...
→ MEHR