HoloLens-Miterfinder Avi Bar-Zeev teilt: Der Weg zur Allwetter-AR-Brille
Der Weg zur Allwetter-XR-Brille
Seit über 30 Jahren arbeite ich an XR, dem Metaverse und Spatial Computing, einschließlich der Unterstützung oder Beratung bei 10 verschiedenen XR-Headset-Projekten. Ich hatte das große Glück, schon früh zu einer Reihe von Projekten beizutragen, hauptsächlich indem ich Anforderungen bewies oder widerlegte und wichtige Benutzererfahrungen definierte, bevor Teams 1 Milliarde US-Dollar für deren Erstellung ausgaben. Auf dem Weg habe ich Lektionen darüber gelernt, was funktioniert und was nicht. Manchmal lautet die richtige Antwort „noch nicht reif“.
Ich werde keine Informationen offenlegen, die mein früherer Arbeitgeber immer noch als geschützt ansieht. Ich werde Links zu veröffentlichten Patenten bereitstellen, die uns einen Einblick geben können. Das ist der eigentliche Zweck von Patenten, ob Sie es glauben oder nicht. Natürlich würde ich Patente vermeiden, von denen ich denke, dass sie zu Spekulationen anregen würden.
Es ist wichtig, darauf zu achten, nichts, was ich sage oder schreibe, als Beweis für die Produktpläne eines Unternehmens oder gar als Kritik an den Bemühungen anderer aufzufassen. Dies war überhaupt nicht meine Absicht.
Zum Hintergrund: Das erste echte XR-Erlebnis, das ich gebaut habe, war eine CAVE. Damals lieh ich mir einen Computer und einen riesigen Projektor für 250 $000 und investierte weitere 30 $000 in Rohstoffe. Das VR-Headset von Disney für 100 $000, das in den 90er-Jahren hergestellt wurde, schaffte es nie auf den kommerziellen Markt. Es erfordert Kabel, die von der Decke hängen, um das Gewicht zu tragen, aber Hunderttausende haben es versucht.
Ich hoffe, dass wir bis Januar 2010 soweit sein werden, mit der Entwicklung gebrauchsfertiger Verbraucher-XR-Brillen zu beginnen. Es ist an der Zeit, in diesem sich langsam bewegenden Bereich für Furore zu sorgen. Außerdem entstanden Google Glass und Magic Leap ungefähr zur gleichen Zeit. Glücklicherweise bestand eine der Aufgaben, die wir im Inkubationsteam von Microsoft erhielten, darin, neue Ideen für die nächste XBox-Generation zu finden.
„Sei aggressiv und bringe uns sogar dazu, ‚das ist verrückt‘ zu sagen“, sagte damals ein Xbox-Manager.
Ich habe sicherlich "radikale" Ideen. Unser kleines Team begann bald mit der Arbeit an einem neuen Produktkonzept „Screen Zero“: alle Bildschirme durch einen Bildschirm zu ersetzen. Ich war für die technische Erkundung verantwortlich und half, die Erfahrung im ersten Ausbildungsjahr zu definieren. Meine Gründe für das Verlassen sind den Platz in diesem Artikel nicht wert. Aber nach mehr als tausend Menschen wurde HoloLens im Jahr 2016 eingeführt.
Dies ist eine bahnbrechende Ausrüstung. Aber es ist immer noch kein Allwetter-Consumer Wearable. Keines der heutigen Magic Leap 2, Snap Spectacles, Varjo oder Quest.
Was braucht es also genau, um eine AR-Brille zu erhalten, die den ganzen Tag getragen werden kann?
1. Maximalismus und Minimalismus
Der maximalistische Ansatz, wie er schließlich von HoloLens verfolgt wurde, bezieht sich auf die Konsolidierung zahlreicher Sensoren, Algorithmen und Leistung in einem High-End-System. Sobald wir die Technik und die Benutzererfahrung festgelegt haben, können wir sie theoretisch eingrenzen. Aber das braucht mehr Zeit, und es kann bis zu einem Jahrzehnt dauern, bis bestimmte Elektronik allein die Leistung optimiert.
Cambria und ähnliche Geräte sind ähnlich maximalistisch, so sehr, dass sie AR mit einem riesigen undurchsichtigen VR-Display und mehreren Kameras simulieren, mit präziser Pixel-für-Pixel-Steuerung über die Mischung aus Realität und Simulation. Maximalismus eignet sich am besten für High-End-Anwendungen und Kernforschung und -entwicklung. Einige argumentieren, dass die Anwendungen, selbst wenn sie eher industriell sind, im Moment die einzigen Werkzeuge sind, die funktionieren.
Allerdings können selbst die teuersten Geräte, die heute auf dem Markt erhältlich sind, nicht den ganzen Tag getragen werden und können nicht für gewöhnliche soziale Interaktionen oder sogar zum sicheren Gehen auf der Straße verwendet werden. Maximalistische Features wie holografische oder Lichtfelddisplays sind noch nicht ausgereift.
Auf der anderen Seite gehören zu Geräten mit einem minimalistischen Ansatz Amazon Echo Frames, Snap Spectacles und Ray-Ban Stories, um nur einige zu nennen. Sie verpacken nur Technologie, die in die aktuellen Einschränkungen des Formfaktors der tragbaren Brille passt, und verzichten oft ganz auf Displays.
Können Brillen ohne Display dennoch als XR zählen?
Wenn es die Situationsperspektive verbessert, würde ich sagen, ja. Ein Podcast oder Musikmix ist kein XR, weil er Sie oder Ihre aktuelle Umgebung immer noch nicht wahrnimmt. GPS-Navigations-Apps sind ein bisschen passend, aber nicht genug. Das Hinzufügen von räumlichem Audio und Kameras für KI und punktgenaue Positionierung zählt definitiv als XR, auch ohne Display.
Minimalistische Ansätze können kurzfristig mehr Produkte verkaufen, konzentrieren sich meist auf einen bestimmten Aspekt und machen daraus eine Best-in-Class-Lösung. Wenn Sie es richtig machen, wie der Walkman und das iPhone, können Sie für Milliarden von Dollar verkaufen. Aber denken Sie nicht, dass Minimalismus einfach ist, denn in vielerlei Hinsicht ist es schwierig, es gut zu machen.
2. Beste Methode
Ich hatte gehofft, dass der Screen Zero der XBox eine Mischung aus minimalistischer Brille und maximalistischer Konsole ist. AR-Brillen sollten ähnlich groß wie Oakley-Brillen oder kleiner sein. Der nächste Gastgeber übernimmt den größten Teil der schweren Arbeit für bis zu vier Brillen im selben Raum.
3. Ergonomie, Energieverbrauch und Wärme
Warum trennen? Es kommt auf den Energieverbrauch an, oder besser gesagt: Wärme.
Die gesamte Arbeit eines Computers endet in Form von Wärme, andere können Photonen und/oder mechanische Antriebe wie Schall beinhalten. Wie viel Hitze? Eine leichte AR-Brille kann etwa ein Watt Energie erzeugen.
Ein typisches Smartphone kann etwa 10 Watt erzeugen und sich dann erwärmen. Ein Host oder PC kann 10-100-mal mehr Energie verbrauchen als ein Smartphone und daher 100-1000-mal mehr Energie als eine Brille. Denken Sie an winzige LED-Taschenlampen und riesige Wäschetrockner. Das ist ein enormer Unterschied im Energieverbrauch.
Um den Energieverbrauch auszugleichen, brauchen wir ähnliche Lösungen, an denen ich seit 2010 arbeite, wie Datenfusion, Split-Rendering, optimierte Rendering-Streams. Bei niedrigeren Bandbreiten funktioniert Eye-Tracking-basiertes Time-Warping-Rendering gut und deckt Kommunikationsverzögerungen ab.
CPU, Kamera, Display und RAM verbrauchen viel Energie und erzeugen viel Wärme. Das Geheimnis besteht also darin, sie in den meisten Fällen sparsam einzusetzen. Denken Sie an benutzerdefinierte Low-Power-Hardware: neue Kontextsensoren, Ultra-Low-Power-Displays und Algorithmen, die clever „aufwachen“.
Dies wird einige Zeit in Anspruch nehmen. Wenn sich beispielsweise Ihre optische Maus und Ihr Host-Controller nicht im Standby-Modus befinden, entladen sich ihre Batterien, sodass sie mit einer angebundenen Lösung beginnen. Heute kann eine optische Maus mit einer kleinen Batterie mehrere Monate durchhalten.
4. Außerhalb des Wohnzimmers
Um eine Vielzahl von Anwendungsfällen zu unterstützen, müssen optisch transparente AR-Systeme Licht aus hellen Umgebungen (sogar Fenster- oder Wohnzimmerbeleuchtung) ideal blockieren, räumliches Audio besser personalisieren und mit der Realität mischen, den optischen Fokus anpassen, virtuelle Hologramme von anderen erfassen und reproduzieren und mehr.
Auch wenn das Gerät in die Haupteinheit und das Headset aufgeteilt ist, ist immer noch zu viel „Zeug“ in unserem Kopf. Eine große ergonomische Herausforderung besteht darin, die riesigen Gurte loszuwerden, die die meisten XR-Geräte immer noch verwenden und die Headsets wie gesichtsumarmende Käfer aussehen lassen.
Jede Art von Gurten, die gespannt werden müssen, schränkt die Vielfalt der Benutzerbasis ein (unter Berücksichtigung von Schwankungen der Kopfgröße und der Anfälligkeit für Unordnung der Haare) und verringert die Wahrscheinlichkeit, eine Brille zu tragen. Das bedeutet, dass eine Allwetterausrüstung superleicht sein muss und in der Regel genauso gut sitzt wie eine normale Brille.
Um die Größe einer Oakley-Brille oder kleiner zu erreichen, muss oft ein größerer Teil des Systems in einen Clip oder eine Fernbedienung verlagert werden. Magic Leap bietet einen solchen Clip an. Mir ist aufgefallen, dass XR-Geräte ein Nackenbügel-Setup verwenden, was bedeutet, dass die Computerkomponenten um den Hals des Verbrauchers gehängt werden. Je getrennter gearbeitet wird, desto leichter kann bei diesem geteilten Design die Auge/Kopf-Anordnung sein.
2010 interessierte ich mich persönlich mehr für den Bizeps, weil er ein Ankerpunkt und bei Bedarf eine kurze Linie war. Dieser hält schwerere und heißere Bauteile von Kopf und Nacken fern und hat viel Oberfläche zur Wärmeableitung. Biosensoren am Arm können auch Gesten erkennen, ähnlich wie der Meta das Control plus Labs-Gerät verwendet, um Gesten vom Handgelenk zu lesen. Auf diese Weise können Produktdesigner immer noch „ohne Kabel“ sagen.
5. Fokus
Da eine große Anzahl von Erwachsenen Nah- und Fernsicht korrigieren muss, muss ein ganztags tragbarer Formfaktor die reale Welt für uns oft vergrößern und fokussieren. Dies bedeutet zumindest, dass die Linsen eine Optik mit benutzerdefinierten Sehparametern unterstützen müssen. Ein Waveguide-Unternehmen, das Snap zuvor übernommen hatte, kündigte Pläne an, die zugehörige Optik in funktionale Sichtlinsen einzubetten, aber das war schwierig.
Aber reicht ein Sehparameter aus? Viele Erwachsene brauchen eine Brille nur zum Lesen oder Autofahren (Weitsichtigkeit), das heißt, sie brauchen eine Brille, um in verschiedene Zustände wechseln zu können. Brauchen wir also zwei oder drei teure Brillen? Oder Bifokalbrillen, Trifokalbrillen, die das Licht je nach Blickrichtung entsprechend beugen? (Praktisch, aber nicht ideal)
Eine Lösung, auf die ich stoße, ist die dynamische optische Anpassung, mit der dieselbe Brille das Lesen oder Fahren unterstützen und sogar Kleingedrucktes und entfernte Schilder vergrößern kann. Dies ermöglicht es auch mehr Freunden, es einfach auszuprobieren. Stellen Sie sich vor, Ihre XBox unterstützt nur Einzelspieler-Spiele und Sie haben zwei oder drei Freunde im Raum? Irgendwie ein Mist.
Zu den derzeit besten dynamischen Fokussierungsmethoden gehören Alvarez (mechanischer Schieber) und flüssigkeitsgefüllte einstellbare Linsen. Mechanische Lösungen neigen dazu, die Zuverlässigkeit zu verringern. Es gibt eine Menge Forschung und Entwicklung, um spezielle LCDs zu stapeln und den Fokus elektronisch zu ändern. Mega erwarb ein Unternehmen, um diese Aufgabe zu übernehmen.
Dann gibt es das Problem, das virtuelle Bild basierend auf der aktuellen Sichtlinie zu fokussieren. Avegant und Magic Leap zeigten uns, wie man schnell zwischen zwei Brennweiten umschaltet, indem sie eine einfache Lichtfeldanzeige simulierten, was wichtig ist, um „virtuelle Objekte“ mit der richtigen Brennweite innerhalb der Spannweite zu navigieren. Ich habe bereits mehrere Möglichkeiten untersucht, die Brennweite kontinuierlich zu scannen, aber kommerzielle Monitore sind in der Praxis nicht schnell genug.
Die Verfolgung Ihrer Augen kann die Verarbeitung unterstützen, die Rechenlast reduzieren und eine natürlichere Benutzereingabe ermöglichen. Ich kenne die Eye-Tracking-Problematik bestens und mache Entscheidungsträger frühzeitig auf die Risiken aufmerksam.
Auf der Geschäftsseite schließlich verdient Luxottica viel Geld mit dem Verkauf von preiswerten, hochpreisigen Brillen. Es dominiert heute den Markt und die meisten Brillenmarken, die Sie kennen. Hersteller von XR-Brillen müssen mit oder gegen sie arbeiten, was keine einfache Wahl ist. Meta entschied sich, mit ihnen zusammenzuarbeiten, um die Ray-Ban-Brille zu entwickeln. Zu den Konkurrenten des Unternehmens gehören Warby Parke und andere kleine Unternehmen. Ohne gute Vertriebswege und Partner kann man keine guten neuen Produkte verkaufen.
6. Kontrast
Magic Leap 2 bietet eine Möglichkeit, die natürliche Welt selektiv zu verwischen. Ich arbeite seit 2010 an diesem Problem, aber es gibt immer noch keine perfekte Lösung. Eine Reihe von Optikingenieuren hielt dies nicht für notwendig. Die Gründe sind wie folgt:
Es ist allgemein verständlich, warum transparente "additive" Displays nicht "schwarz" wiedergeben können. RGB{{0}},0,0 für Schwarz, das eigentlich nichts hinzufügt und im vorhandenen Licht nicht sichtbar ist. Wir können Sie jedoch leicht dazu verleiten, Schwarz und Schatten wahrzunehmen, indem wir uns helleren Bereichen nähern.
Das wirklich schwierige Problem tritt auf, wenn Sie Ihre XR-Brille mit nach draußen nehmen und auf eine von hellem Sonnenlicht beleuchtete Wand schauen, wahrscheinlich in der Nähe eines dunklen oder schattigen Bereichs. Bestimmte Bereiche können 1000- bis 10000-mal heller sein als andere. Der Kontrast ist in Innenräumen so ausgeprägt, dass AR-Visualisierungen geradezu beängstigend wirken. Optikingenieure argumentieren oft, dass man mehr Licht ausgeben muss, um dies zu überwinden. Ihre Optik ist typischerweise nur zu 1 Prozent -10 Prozent effizient, was bedeutet, dass das meiste Licht nicht einmal in Ihre Augen gelangt und nur mehr Wärme hinzufügt. Denken Sie daran, dass Sie ein System nicht nur um die Optik herum entwerfen können, da Wärme einer der größten einschränkenden Faktoren ist.
Die Realität ist, dass jede transparente AR- oder Video-Durchsichtsbrille die reale Szene berücksichtigen muss, wenn visuelle Verbesserungen vorgenommen werden. Bei Transparenz müssen Gläser oft von der realen Beleuchtung abgezogen werden, um die gewünschte Endfarbe zu erhalten. Im Fall der Videoperspektive kann die Anzeige das gesamte Pixel ersetzen, aber jede Transparenz in der virtuellen 3D-Szene muss immer noch mit der von der Kamera gelesenen Hintergrundfarbe gemischt werden. Was Sie also im Grunde betrachten, ist eine Hochenergiekamera und eine Schaltung, die entweder transparent oder undurchsichtig ist. Dies ist eine enorme Designbeschränkung, da es Energie und Gewicht hinzufügt und gleichzeitig die Augen blockiert.
Oberflächlich betrachtet ist eine selektive Schattierung mit durchsichtigen Gläsern kostengünstiger als das Hinzufügen von Strom zum Display oder das Hinzufügen einer Kamera. 2010 habe ich ein einfaches monochromes LCD vor den Waveguide gestellt. Es funktioniert wie erwartet und rendert feste 3D-Objekte mit weichen schwarzen Umrissen. Aber es hat Nachteile, einschließlich der Notwendigkeit einer dynamischen Kalibrierung, das LCD verzerrt echtes Licht (hauptsächlich die Brechung der Steuerdrähte). Es hat einen schlechten Dynamikbereich für sich. Im Freien benötigen Sie manchmal eine nahezu 100-prozentige Deckkraft. In Innenräumen, insbesondere in sozialen Situationen und Telepräsenz, möchten Sie transparenter sein, um den Menschen direkt in die Augen zu sehen.
Der Haupteinwand gegen diesen Ansatz besteht darin, dass LCDs oder andere räumliche Lichtmodulatoren oft unscharf sind, einen Zentimeter vom Auge entfernt. Aber die Verzerrung ist so groß, dass Ihre Sonnenbrille mit den richtigen transparenten Plus- und Minus-AR-Displays und einigen schnellen Sensoren mit geringem Stromverbrauch Sonnenlicht, Blendung oder Scheinwerfer blockieren kann, ohne Ihre Sicht an anderer Stelle zu beeinträchtigen. Sie können die Welt subtil verdunkeln und empfohlene Bücher glänzend aussehen lassen. Mit fortschrittlicherer Subtraktion (Filterung) kann die Brille sogar die Welt neu einfärben, die Nachtsicht verbessern und sogar biometrisches Feedback geben, wenn Sie sich unruhig oder abgelenkt fühlen.
Ich habe verschiedene Demo-Sachen gemacht und lange nach einem besseren Weg gesucht. Aber sie alle haben gewisse Nachteile. Die Implementierung von Magic Leap 2 lässt mich jedoch hoffen, dass die Kernprobleme gelöst werden.
7. Netzwerk
Radios benötigen auch Energie, daher gibt es bei einem Split-System immer einen Kompromiss. Die vielversprechendste Zukunft liegt in der Verwendung von High-End-Funkfrequenzen, um eine geringere Leistung und eine höhere Bandbreite als heute zu erreichen. Die größte Herausforderung besteht jedoch darin, dass diese Frequenz nicht durch Haut oder Wände dringen kann (im Guten wie im Schlechten). Daher muss die Lösung sehr clever sein, da Funkwellen um Räume und Menschen herum abprallen und strahlen, sodass möglicherweise mehr Sender verwendet werden müssen, als heute vorhanden sind. Offensichtlich erhöht dies die Kosten und die Komplexität.
Für ganztägige Wearables muss das Netzwerk auch verfügbar sein, bevor Produkte verkauft werden, die darauf angewiesen sind. Diese Einschränkung ist der Hauptgrund, warum Unternehmen niemals die Split-Rendering-Lösung veröffentlichen, die ich befürworte. 5G ist näher an dem, was wir brauchen, aber zumindest in den USA löst dies größtenteils das Problem der geringeren Latenz und der gleichzeitigen Nutzung des Netzwerks durch mehr Menschen. Wir brauchen mehr als 5G, aber es ist ein guter Anfang.
Um den ursprünglichen "Host" (oder ähnliches) im Raum loszuwerden und gleichzeitig einen kleinen und leichten Formfaktor beizubehalten, brauchen wir eine Möglichkeit, "Edge"-Computing zu ermöglichen, kombiniert auf eine Weise, die nicht in unsere Privatsphäre eindringt. Das Senden ihrer biometrischen Sensordaten an eine Edge- oder Cloud-Lösung ist für jeden sehr besorgniserregend, da sie leicht missbraucht werden können.
8. Kamera
Das Anbringen der Kamera an der Brille ist eine knifflige Angelegenheit. Google Glass hat viele Fehler in der sozialen Akzeptanz gemacht und ist weit verbreitet angegriffen worden. Aber Snap scheint in dieser Hinsicht nur wenige Probleme zu haben. Gleichzeitig hat Facebook daran gearbeitet, die Details des Lebens aller Menschen zu erfassen, vermutlich um personalisiertere Anzeigen zu liefern, ob es uns gefällt oder nicht.
Bestimmte Kameras sind energieintensiv, wie z. B. die Digitalisierung von 3D-Szenen und die digitale Okklusion von Personen oder Objekten. Um 3D-Grafiken richtig zu platzieren, müssen Sie den Kopf kontinuierlich im Raum verfolgen, und Kameras sind immer noch die führende Lösung. Durch den Einsatz von IMU-Sensoren erhöhen wir den Energieverbrauch.
Das Aufnehmen von Fotos oder Videos ist ein ziemlich beliebter Anwendungsfall, insbesondere wenn es natürlicher und bequemer ist als andere Geräte. Aufgrund von Größen- und Leistungsbeschränkungen ist die Qualität der Fotos jedoch geringer als bei einem typischen Smartphone. Ein kleines weißes Licht im Rahmen bereitzustellen reicht nicht aus, um das komplexe Problem der sozialen Anerkennung zu lösen.
Das Szenenverständnis kann man sich leichter als Hauptmerkmal einer Kamerabrille vorstellen, zum Teil, weil sie keine Bilder von anderen Menschen machen muss, aber was noch wichtiger ist, es eröffnet den wichtigsten neuen Anwendungsfall für das Tragen einer Brille den ganzen Tag: Situationsverständnis.
9. Erfahrung
Im Jahr 2010 ist die Forschung und Entwicklung, die ich am meisten hoffe, eine AR-Brille zu entwickeln, die leistungsstarke Eye-Tracking- und Body-Tracking-Funktionen unterstützt und eine natürlichere Spatial-Computing-Benutzeroberfläche jenseits des traditionellen „Rechtecks innerhalb eines Rechtecks“ von PCs und Mäusen erforscht. Während die Hardware sicherlich ihre Grenzen hat, erfordert die weit verbreitete Einführung von XR jemanden, der sich mit der Erfahrungsfrage befasst, „wie“ man in Zukunft interagieren kann. "3D-Box in einer Box" ist eindeutig nicht. Wir haben also noch viel zu tun.
Während Meta seine VR-Bemühungen darauf konzentriert, den sogenannten „Visual Turing Test“ zu bestehen, müssen XR-Brillen, die den ganzen Tag getragen werden können, nützlicher sein als andere. Viele stellen sich AR-Schichten oder -Kanäle vor, die unsere Realität durchdringen, alles markieren, was wir sehen, Informationen hinzufügen, räumliche Geschichten in 3D erzählen und die Welt neu zeichnen. Dies ist zwar wahrscheinlich auf Abruf möglich, aber das ist nicht die alltägliche Erfahrung, die ich erwarten würde.
Meistens möchten die Menschen das verbessern, was sie oft tun: kommunizieren, navigieren, die Welt um uns herum entdecken, einen Ort verstehen und sogar verändern, einkaufen, Inhalte erleben und mit der Arbeit Geld verdienen. Um erfolgreich zu sein, müssen XR-Brillen besser abschneiden als wir mit Smartphones oder anderen Geräten.
Hier ist, was ein Smartphone nicht kann. Stellen Sie sich eine normal aussehende Brille vor, die den Fokus dynamisch anpasst und Licht selektiv blockiert. Sie können proaktiv und privat mit Ihnen sprechen, ohne dass Sie Text eingeben oder verbal fragen müssen. Das allein wäre ein Milliardenprodukt. Solche Brillen können Ihnen helfen, sich an Dinge zu erinnern oder vertrauenswürdige Empfehlungen als Teil Ihrer täglichen Erfahrung zu geben (im Gegensatz zu Push-Anzeigen).
Die wichtigste Forschung, die ich in diesem Bereich durchgeführt habe, ist die asynchrone Kommunikation mit nicht-visuellen XR-Brillen. Die Sprach- und Textfunktionen von Smartphones sind heute gut genug, aber wissen sie, wann Sie Schwierigkeiten haben, sich zu konzentrieren? Können sie Ihnen dabei helfen, den Kontext zum richtigen Zeitpunkt zu wechseln, um Arbeit oder Spiel am Laufen zu halten? Hier ist, wie Wo die Brille glänzen kann (vorausgesetzt, wir können dem Hersteller vertrauen).
Alles, was ich beschrieben habe, ist sehr schwierig, und die entsprechende Technologie ist fast nicht vorhanden. Es ist noch nicht minimalistisch, aber das liegt daran, dass wir es nicht über die Miniaturisierung der Optik und die Maximierung des Sichtfelds gestellt haben. Aber wenn Sie sich die Frage stellen: Welche Art von XR-Brille kann dort Erfolg haben, wo andere es nicht geschafft haben? Ich denke immer noch, dass alles, was ich oben aufgelistet habe, Ihnen helfen wird, ein großartiges Produkt zu bauen.
