Apple AR-Headset-Konzept verbessert Bewegungserkennung und Positionierung
Die Interaktion mit einem AR-Headset wäre ein Kinderspiel, wenn es virtuelle Bedienelemente in die reale Welt projizieren könnte. Apple hat eine neue Methode entwickelt, um mit Kameras Fingerbewegungen genau zu verfolgen, sodass jemand diese Augmented-Reality-Schalter und -Tasten umschalten kann.
Tragbare Kameras verfolgen deine Handbewegungen genau
Apple hat heute ein Patent für „Tiefenbasierte Berührungserkennung.“ Es beschreibt eine Methode, um „eine Tiefenkarte zu verwenden, um ein Objekt und eine Oberfläche zu identifizieren, und einen Klassifikator, um zu bestimmen, wann das Objekt die Oberfläche berührt“. Es war innovativ als Apple es vorschlug, weil es den Abstand von der Hand des Benutzers zur Oberfläche verfolgt – frühere Versionen verfolgen den Abstand zwischen der Hand und der Kamera, um die Tiefe zu erzeugen Karte.
Was Apples Technologie ermöglicht, ist eine AR-Brille, die ihre Einstellungsbildschirme virtuell auf einen Tisch oder eine andere Oberfläche projiziert. Dann könnte der Benutzer mit den Fingern Schalter umschalten oder Schieberegler bewegen. Auch eine Volltastatur ist theoretisch möglich.
Und natürlich würde es die Interaktion mit virtuellen Objekten erleichtern, die von der AR-Brille erstellt wurden, wenn man genau weiß, wo sich die Hände und Finger des Benutzers befinden.
Apple arbeitet hart an einem AR-Headset
Es gibt zahlreiche Hinweise darauf, dass Apple ein AR-Headset entwickelt, auch wenn es keine offizielle Ankündigung gab. Zuletzt, Code in iOS 13 vergraben verweist direkt auf diesen Gerätetyp.
Unbestätigte Berichte liefern weitere Details und weisen darauf hin, dass potenzielle Käufer Jahre warten müssen. EIN kürzliches Leck gibt an, dass Apple 2022 sein erstes AR-Headset herausbringen wird, gefolgt von einem kleineren Gerät wie einer AR-Brille im Jahr 2023.