ML-Verfahren ermöglichen Übertragung von Kunststilen
Maschinelles Lernen (ML) gilt als Schlüsseltechnologie der Künstlichen Intelligenz (KI) und hält Einzug in eine immer größer werdende Zahl von Systemen und Anwendungen. Dank Maschinellen Lernens können Fotos und Videos auf völlig neue Weise analysiert, interpretiert und gestaltet werden.

 

 


Bild: Hasso-Plattner-Institut für Softwaresystemte GmbH

Am Hasso-Plattner-Institut (HPI) in Potsdam forscht ein Team von Wissenschaftlern am Fachgebiet Computergrafische Systeme an solchen ML-Verfahren. Durch diese wird beispielsweise die schnelle und interaktive Übertragung verschiedener Kunststile – auch bekannt als „Style Transfer“- auf Fotos und Videos ermöglicht.

Beim Style Transfer wird ein neuronales Netzwerk mit einer Vielzahl an Gemälden und Kunstwerken trainiert, damit dieses Muster und Merkmale verschiedener Künstler erlernt. Dafür werden die Bilddaten auf mehreren Abstraktionsstufen, von der Objektebene bis ins kleinste Detail, analysiert. Grafische Elemente der erlernten Kunststile werden dann automatisiert und pixelscharf auf das jeweilige Foto übertragen. Die Ergebnisse besitzen grafische Züge der entsprechenden Wissensbasis, d.h. sie bekommen dadurch Züge der Kunstwerke, die als Wissensbasis verwendet wurden.

Ein großer Nachteil dieses Ansatzes war bislang, dass ausschließlich Farben und Strukturen eines künstlerischen Stils erlernt wurden, nicht jedoch weit umfangreichere Designaspekte, die die Komposition eines Kunstwerks berücksichtigen. So wird z. B. der Farbstil des Sternenhimmels in van Gogh’s „The Starry Night“ fälschlicherweise auf Wiesen und Wälder übertragen. Ziel der HPI-Forschung war es den Style Transfer von einem automatischen „Black-Box“-Prozess zu einem interaktiven Werkzeug auf Basis von Visual Media Analytics weiterzuentwickeln.

Künstliche Intelligenz ermöglicht es auch, das Geschehen in einem Video zu analysieren und dann die Dynamik in einem einzelnen Bild zu stilisieren. Wie ein solches neuartiges Abstraktionsverfahren aussehen kann, stellten Max Reimann und Sumit Shekhar 2019 auf der SIGGRAPH – der weltweit führenden Konferenz und Fachmesse für Computergrafik und interaktive Techniken – in Los Angeles vor. Die App berechnet  Bewegungsinformationen zu einem Videoclip und fasst diese in einem abstrahierten „Live-Foto“ zusammen, um Dynamik stilistisch zu visualisieren.

Wissenschaftler des HPI-Fachgebiets publizieren regelmäßig auf renommierten Konferenzen, z.B. auch auf der SIGGRAPH Asia 2017. Dort wurde u.a. auch schon Sebastian Pasewaldt für seine Arbeiten ausgezeichnet. Er gründete 2013 das Unternehmen Digital Masterpieces. Das HPI-Startup entwickelt Kunst- und Fotobearbeitungs-Apps wie BeCasso, Clip2Comic oder ArtCard für iPhone und iPad, die auch für Grafiker, Künstler und Buchillustratoren immer attraktiver werden. „Wir beobachten, dass unsere interaktiven Apps zunehmend auch Künstler und Kreative bei ihrer Arbeit unterstützen“, so Pasewaldt. Ausschlaggebend für den Wandel sei zum einen die enorme Verarbeitungsgeschwindigkeit der umgesetzten Techniken und das vielfältige Angebot unterschiedlicher Kunststile in einer App sowie die exzellente Ausgabequalität und einfache Bedienbarkeit.

Thematik: Technologie
Ausgabe:

Anzeige

Anzeige

Das könnte Sie auch Interessieren

Bild: Abat AG
Bild: Abat AG
Forschungskooperation verlängert

Forschungskooperation verlängert

Bild: Abat AG Voneinander und miteinander lernen, gemeinsam an innovativen Ideen für den Markt innerhalb von Forschungskooperationen tätig sein - seit mehreren Jahren schon besteht eine enge Zusammenarbeit zwischen der Bremer Abat AG und der Uni Oldenburg (Abteilung...

Image: Xilinx Inc.
Image: Xilinx Inc.
Adaptive AI Vision

Adaptive AI Vision

Image: Xilinx Inc. Die Kria SOMs ermöglichen den schnellen Einsatz durch Bereitstellung einer End-to-End Lösung auf Board-Ebene mit vorkonfiguriertem Software Stack. Das Kria K26 SOM basiert auf der Zynq UltraScale+ MPSoC Architektur, die einen Quad-Core Arm Cortex...