Mobile-Menu

Faszination Technik Wie virtuelle Welten intelligenter werden

Quelle: DFKI 3 min Lesedauer

Anbieter zum Thema

In unserer Rubrik „Faszination Technik“ stellen wir beeindruckende Projekte aus Forschung und Entwicklung vor. Heute: wie im Projekt Luminous die nächste Stufe der erweiterten Realität entsteht.

Eine neue Technologie sammelt unzählige Eindrücke, interpretiert sie und kann mittels generativer und multimodaler Sprachmodelle (MLLM) eine adäquate Handlung vorschlagen.(Bild:  DFKI)
Eine neue Technologie sammelt unzählige Eindrücke, interpretiert sie und kann mittels generativer und multimodaler Sprachmodelle (MLLM) eine adäquate Handlung vorschlagen.
(Bild: DFKI)

Oftmals prasseln im Alltag eine Vielzahl von Eindrücken auf uns ein – da kann es bisweilen schwerfallen, den Überblick zu behalten. Schließlich müssen sämtliche Eindrücke nicht nur wahrgenommen, sondern auch interpretiert werden, was schlussendlich eine breite Palette von Handlungsoptionen eröffnet. An diesem Punkt kommt das System von Luminous (Language Augmentation for Humanverse), entwickelt im Deutschen Forschungszentrum für Künstliche Intelligenz (DFKI), ins Spiel. Die Technologie sammelt die unzähligen Eindrücke, interpretiert sie und kann mittels generativer und multimodaler Sprachmodelle (MLLM) eine adäquate Handlung vorschlagen.

Durch die von uns entwickelte Technologie werden virtuelle Welten intelligenter.

Didier Stricker

Didier Stricker, Leiter des Forschungsbereichs Erweiterte Realität am DFKI: „Durch die von uns entwickelte Technologie werden virtuelle Welten intelligenter. Die intuitive Interaktion per Text mit dem System und automatische Generierung komplexer Verhaltensweisen und Abläufe durch generative KI oder sogenannte Multi-Modal Large Language Models ermöglichen uns, diese nicht nur zu erleben, sondern auch zu testen. Um das zu erreichen, arbeiten wir in Luminous parallel an mehreren Ansätzen wie automatischer Code-Generierung, dem schnellen Einpflegen neuer Daten und weiteren Lösungen."

System beobachtet, interpretiert – und gibt Handlungsempfehlungen

Im Projekt Luminous arbeitet das DFKI an Systemen der Erweiterten Realität (XR) der nächsten Generation. So sollen sich MLLM in Zukunft den bisherigen technischen Erweiterungen unserer visuell wahrgenommenen Realität, wie etwa in Form von Texten, Animationen oder der Einblendung virtueller Objekte, anschließen und die Interaktion mit XR-Technologie neu definieren.

Wie das in der Praxis aussehen kann, erklärt Muhammad Zeshan Afzal, Forscher aus dem Bereich Erweiterte Realität am Deutschen Forschungszentrum für Künstliche Intelligenz (DFKI), anhand eines Szenarios: „Ein Feuer entsteht in einem Raum. Unser System ermittelt in diesem Fall zunächst, wo sich die Person – welche mit unserer Technologie ausgestattet ist – gerade befindet. Dann werden relevante Daten aus ihrem unmittelbaren Umfeld gesammelt, wie beispielsweise die Anwesenheit eines Feuerlöschers oder eines Notausgangs, um diese wiederum an das generative und multimodale Sprachmodell weiterzugeben. Dieses ermittelt dann eine passende Handlungsempfehlung, wie beispielsweise den Löschvorgang mittels Feuerlöscher einzuleiten, Fenster zu schließen oder sich in Sicherheit zu bringen.“

Luminous baut dank KI flexibles Bild- und Textvokabular auf

Bisher waren Forschungs- und Entwicklungsbestrebungen weitestgehend auf die räumliche Nachverfolgung der Nutzer und ihrer Umgebung beschränkt. Die Folge: sehr spezifische, eingeschränkte und nicht generalisierbare Repräsentationen sowie vordefinierte grafische Visualisierungen und Animationen. Das soll sich durch „Language Augmentation for Humanverse“ künftig ändern.

Um das zu erreichen, entwickeln die Forschenden am DFKI eine Plattform mit Sprachunterstützung, die sich an individuelle, nicht vordefinierte Nutzerbedürfnisse und bisher unbekannte Umgebungen der erweiterten Realität anpasst. Das anpassungsfähige Konzept entstammt dem Zero-Shot-Learning (ZSL), einem KI-System, das darauf trainiert ist, Objekte und Szenarien zu erkennen und zu kategorisieren – ohne exemplarisches Referenzmaterial vorab gesehen zu haben. In der Umsetzung soll Luminous mit seiner Datenbank von Bildbeschreibungen ein flexibles Bild- und Textvokabular aufbauen, das es ermöglicht, auch unbekannte Objekte oder Szenen in Bildern und Videos zu erkennen.

Plattform unterstützt in Echtzeit

Das LLM aus dem Projekt Luminous soll als eine Art Übersetzer dazu in der Lage sein, Alltagstätigkeiten auf Befehl zu beschreiben und mittels Sprachinterface oder Avatar an die Nutzer auszuspielen. Durch die so bereitgestellten visuellen Hilfestellungen und Handlungsempfehlungen werden dann Alltagsaktivitäten in Echtzeit unterstützend begleitet. Nutzer dieser neuen XR-Systeme werden künftig in der Lage sein, nahtlos mit ihrer Umgebung zu interagieren, indem sie Sprachmodelle verwenden und gleichzeitig Zugang zu ständig aktualisierten globalen und domänenspezifischen Wissensquellen haben.

Dieser Beitrag ist ursprünglich auf unserem Partnerportal konstruktionspraxis erschienen.

(ID:50184720)

Jetzt Newsletter abonnieren

Täglich die wichtigsten Infos zu Data-Storage und -Management

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung. Die Einwilligungserklärung bezieht sich u. a. auf die Zusendung von redaktionellen Newslettern per E-Mail und auf den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern (z. B. LinkedIn, Google, Meta).

Aufklappen für Details zu Ihrer Einwilligung