Ingenieure des Stanford Computational Imaging Lab entwickeln Prototyp einer leichten, KI-gestützten holografischen AR-Brille

Ingenieure des Stanford Computational Imaging Lab entwickeln Prototyp einer leichten, KI-gestützten holografischen AR-Brille
Ingenieure des Stanford Computational Imaging Lab entwickeln Prototyp einer leichten, KI-gestützten holografischen AR-Brille
-

Ingenieure des Stanford Computational Imaging Laboratory haben einen Prototyp einer leichten Augmented-Reality-Brille entwickelt und damit die Tür zu zukünftigen holografischen Augmented-Reality-Brillen geöffnet, die viel leichter sind als derzeit verfügbare Headsets. Der Schlüssel zu dieser Innovation liegt in einem KI-gestützten Display, das ein 3D-Bild ohne den Einsatz sperriger Linsen über zwei Metaoberflächen innerhalb eines dünnen optischen Wellenleiters projiziert.

Herkömmliche AR/VR/XR-Headsets verwenden typischerweise Fokussierungslinsen, um Bilder von Mikro-LED- oder OLED-Displays in die Augen des Benutzers zu projizieren. Leider führt die erforderliche Tiefe der Linsen zu sperrigen Designs, wie zum Beispiel bei Smartphones auf Google Cardboard oder Apple Vision Pro-Geräten, die mehr als 600 Gramm wiegen.

Dünnere Designs verwenden manchmal einen optischen Wellenleiter (stellen Sie sich das wie ein Periskop vor), um den Bildschirm und die Linsen von vor den Augen zur Seite des Kopfes zu bewegen, beschränken den Benutzer jedoch auf 2D-Bilder und Text. Stanford-Ingenieure haben KI-Technologie mit Metasurface-Wellenleitern kombiniert, um das Gewicht und Volumen ihres Augmented-Reality-Headsets zu reduzieren und gleichzeitig ein holografisches 3D-Bild zu projizieren.

Die erste Neuerung ist der Verzicht auf sperrige Fokussierlinsen. Stattdessen „kodieren“ und „dekodieren“ ultradünne Metaoberflächen, die in den Wellenleiter geätzt sind, ein projiziertes Bild durch Biegen und Ausrichten von Licht. Stellen Sie sich das ganz grob so vor, als würde Wasser in einem festgelegten Rhythmus an einem Ende eines Beckens spritzen, und wenn die Wellen das andere Ende erreichen, können die Wellen gelesen werden, um den ursprünglichen Rhythmus wiederherzustellen. Die Stanford-Brille nutzt eine Metaoberfläche vor dem Bildschirm und eine weitere vor dem Auge.

Das zweite ist ein Wellenleiterausbreitungsmodell, das simuliert, wie Licht durch den Wellenleiter reflektiert wird, um holografische Bilder präzise zu erzeugen. 3D-Hologramme hängen stark von der Präzision der Lichtübertragung ab, und selbst Nanometer-Variationen in Wellenleiteroberflächen können das sichtbare holografische Bild stark verändern. Hier werden Deep-Learning-Faltungs-Neuronale Netzwerke unter Verwendung einer modifizierten UNet-Architektur von https://arxiv.org/abs/1505.04597 mit rotem, grünem und blauem Licht trainiert, das durch den Wellenleiter gesendet wird, um optische Aberrationen des Systems zu kompensieren. Stellen Sie sich das im Großen und Ganzen so vor, als würden Sie einen Pfeil abschießen, der auf das Ziel zielt, aber ein wenig nach rechts trifft: Jetzt wissen Sie, wie Sie dies ausgleichen können, indem Sie ein wenig nach links zielen.

Das dritte ist die Verwendung eines neuronalen KI-Netzwerks zur Erstellung holografischer Bilder. Ein 48-GB-Nvidia-RTX-A6000-Prozessor wurde verwendet, um die KI auf eine breite Palette von Phasenmustern zu trainieren, die vom einphasigen SLM-Anzeigemodul Holoeye Leto-3 projiziert werden. Mit der Zeit lernte die KI, welche Muster bestimmte Bilder in vier Entfernungen (1 m, 1,5 m, 3 m und unendlich) erzeugen konnten.

Insgesamt erzeugt das KI-Modell, das diesen Helm antreibt, deutlich bessere 3D-Bilder als die Alternativen. Obwohl Stanfords Augmented-Reality-Brille ein Prototyp ist, können Leser die Augmented-Welt heute mit leichten Brillen wie dieser auf Amazon genießen.

-

NEXT In Night City kann man Half-Life 3 spielen