Hat Apple gerade Augen für Siri gekauft?

Apfel einverstanden diese Woche das in Israel ansässige Unternehmen PrimeSense für 350 Millionen US-Dollar kaufen.

PrimeSense ist am besten dafür bekannt, die 3D-Motion-Tracking-Technologie in Microsofts Kinect.

Bedeutet dies, dass Apple plant, seine eigene Kinect zu entwickeln? Vielleicht. Aber ich denke, Apple denkt vielleicht über etwas viel Interessanteres nach.

Alle üblichen Vorbehalte gelten für die Übernahme von PrimeSense durch Apple.

Dass Apple ein Unternehmen kauft, sagt sehr wenig über zukünftige Produkte aus. Manchmal kaufen Unternehmen andere Unternehmen, um ein Team talentierter Mitarbeiter einzustellen. Manchmal wollen sie die Patente. Manchmal eliminieren sie Konkurrenten.

Dennoch hat Apple eine lange Geschichte darin, große Initiativen für neue Benutzeroberflächen auf einer Akquisition zu basieren.

Zum Beispiel basierte die iOS-Benutzeroberfläche von Apple teilweise auf der Technologie von FingerWorks, die Apple zwei Jahre vor dem Hit des iPhones erworben hatte. Siri wurde 2010 erworben, bevor es als Kernschnittstelle direkt in das iPhone integriert wurde.

Aufgrund der Verbindung mit dem Kinect-Produkt von Microsoft ist es leicht anzunehmen, dass Apple PrimeSense übernommen hat wird zu einer neuen In-the-Air-Gestenschnittstelle für Apple-Geräte, insbesondere Fernseher und möglich für Tablets und Telefone.

Aber PrimeSense bietet Apple leistungsstarke Funktionen für alle möglichen Dinge, von Kinect-ähnlichen Gestenoberflächen und Spielen bis hin zu Indoor-Mapping für Apple-Karten.

Tatsächlich kann oder wurde die PrimeSense-Technologie bereits von den wenigen Partnern dieses Unternehmens für 3D verwendet Druckobjektscanner, Robotik, Augmented Reality, Gesundheitswesen und, ja, Kinect und Kinect wie Gesten in der Luft Schnittstellen.

Aber Apple ist nicht die Art von Unternehmen, die promiskutiv in dieses oder jenes neue Geschäft einsteigt. Sie konzentrieren sich auf ein sehr enges Spektrum sehr etablierter Unternehmen, die hauptsächlich die Erstellung von Inhalten, den Konsum von Inhalten sowie Allzweck-Computing und -Kommunikation umfassen.

Eines der coolsten und leistungsstärksten Dinge, die Apple mit der PrimeSense-Technologie machen kann, ist nicht neu Benutzeroberfläche, sondern eine neue Möglichkeit für Siri, Sie und Ihre Umgebung zu verstehen, um relevantere Angebote zu machen Hilfe.

Die Idee, dass PrimeSense 3D-Sensoren verwendet werden könnten, um Siri eine Vision zu geben, wurde vorgeschlagen, aber in letzter Zeit unerforscht, einschließlich von Mark Hachman, Schel Israel und andere.

Wenn Sie sich jedoch ansehen, wozu PrimeSense-Sensoren in der Lage sind – insbesondere der niedrige Stromverbrauch von PrimeSense System-on-a-Chip, Marke Capri – es ist leicht vorstellbar, was Apple tun könnte und sollte, um Siri in zu verbessern umwerfende Wege.

Jeder Kinect-Benutzer weiß, dass PrimeSense mehrere auf den Benutzer gerichtete „Kameras“ verwendet, was dazu führt, dass einige fälschlicherweise annehmen, dass es wie das menschliche 3D-Vision funktioniert.

Der Mensch erzeugt 3D im Gehirn, indem er ihm zwei „Video-Feeds“ derselben Szene aus zwei leicht unterschiedlichen Blickwinkeln zuführt. Vision ist die Hardware, um Licht zu erkennen und in elektrische Impulse umzuwandeln, sowie die Wetware, um es zu verstehen.

PrimeSense basiert auf einer patentierten Technologie, die als „Light Coding“ geschützt ist und von der das Unternehmen behauptet, dass sie „Submillimeter-Genauigkeit für das 3D-Scannen“ ermöglicht. Dieses „Light Coding“ badet einen Raum, eine Person oder eine Gruppe von Objekten in Licht, das außerhalb des menschlichen Sichtbereichs liegt, nahe, aber nicht ganz im Infrarotbereich, erkennt dann das reflektierte Licht mit einem normalen, handelsüblichen CMOS Sensor. Ein paralleler Rechenalgorithmus analysiert dann die zurückgegebenen Daten, um genau herauszufinden, wie weit jede sichtbare Oberfläche vom Sensor entfernt ist (und liefert genaues 3D). Diese Daten werden dann mit Farbdaten zusammengeführt, wodurch eine verbesserte Fähigkeit bereitgestellt wird, Objekte voneinander zu unterscheiden. Und nicht nur Objekte. PrimeSense-Sensoren können die Unterschiede zwischen einem Boden, einer Wand, einer Decke und einer Tür erkennen.

Das neue Capri-Produkt von PrimeSense kann als der Sensor von Microsoft Kinect verstanden werden, aber kleiner, billiger, schneller und mit höherer Auflösung. Es ist klein und günstig genug, um in ein Smartphone eingebaut zu werden, ohne den Preis erheblich zu erhöhen.

Tatsächlich ist es nicht unvorstellbar, dass Capri-ähnliche zukünftige Sensoren sowohl in die Vorder- als auch in die Rückseite von iPhones eingebaut werden und iPads und in die Fronten eines zukünftigen iTV und zukünftiger iMacs und MacBooks – und hauptsächlich zum Vorteil von Siri kontextbezogen Bewusstsein.

Indem Sie Ihr Telefon hochhalten und mit Siri sprechen, kann Siri etwas über Sie und Ihre Umgebung erfahren.

Die PrimeSense-Technologie könnte Siri beispielsweise ermöglichen:

* Kennen Sie Ihren Standort im Haus. Indem Sie durch Ihren iTV, iMac, iPhone oder iPad nach draußen schauen und sowohl Sie als auch Ihre Umgebung sehen, kann Siri wissen, wo Sie sich im Haus befinden – oder ob Sie nicht zu Hause sind.

* Wissen, mit wem du zusammen bist. Siri könnte wissen, ob du allein oder mit anderen Leuten zusammen bist. Wenn du alleine bist, könnte Siri mit dir reden. Wenn Sie in einem Restaurant sind, zeigt Siri möglicherweise seine Informationen exklusiv auf dem Bildschirm an.

* Lesen Sie Ihre Emotionen. Durch das Scannen Ihres Gesichtsausdrucks könnte Siri sein Verständnis dafür verbessern, was Sie sagen, und auch beurteilen, wie gut es ihm geht. Wenn eine zukünftige Version von Siri Google Now-ähnliche präventive Vorschläge enthält (und dies wahrscheinlich wird), könnte Siri lernen, ob verschiedene Vorschläge Sie erfreuen oder frustrieren.

* Erkennen Sie, worauf Sie achten. Siri könnte viel höflicher und sensibler werden, indem sie mit dir interagiert, wenn du aufmerksam bist, und dich nicht unterbricht, während du dich auf etwas oder jemand anderen konzentrierst. Es könnte auch sagen, was Sie tun – schlafen, essen, mit Ohrhörern hören, Sport treiben usw. – und entsprechend mit Ihnen interagieren.

* Rate mal, welche Kleidergröße du trägst. Sie könnten einfach Kleidung bestellen, ohne Ihre genaue Größe zu kennen.

* Behalten Sie die Größe Ihrer heranwachsenden Kinder im Auge. Wenn Ihre Kinder von Zeit zu Zeit vor Ihrem iMac oder Fernseher spazieren gehen, kann die PrimeSense-Technologie Ihre Kinder erkennen und ihre Körpergröße und Konfektionsgröße überwachen. Du könntest Siri jederzeit einfach fragen: „Wie groß ist Jason jetzt?“

* Sag dir die Größen der Dinge. Indem Sie Ihr Telefon auf ein Gerät oder ein Möbelstück in einem Geschäft richten, kann Siri Ihnen sagen, ob es in Ihr Zuhause passt (nachdem Sie bereits alle Räume gesehen und ausgemessen haben).

Virtuelle Assistenten wie Siri werden im Laufe der Zeit vor allem dadurch besser, dass sie im Kontext besser werden – sie kennen Ihre Situation und Ihre Umstände und helfen Ihnen entsprechend.

Damit Siri wirklich verstehen kann, was mit dir und deiner Umgebung vor sich geht, muss sie sich umschauen und ein grundlegendes Verständnis dafür haben, was sie sieht. Die PrimeSense-Technologie ist darin wirklich gut.

Ich denke, Apple hat Siri vielleicht gerade ein wirklich tolles Augenpaar gekauft.

Neuester Blogbeitrag

Intels massiver Chipfehler wird Mac dort treffen, wo es wehtut
October 21, 2021

Eine in Intel-Chips entdeckte schwerwiegende Sicherheitslücke erfordert eine Softwarekorrektur, die sich negativ auf die Leistung Ihres Macs auswir...

IPhone und iPad können anfällig für böse CPU-Fehler sein
October 21, 2021

Ein böser CPU-Fehler Damit sind die sensibelsten Daten von Computerbenutzern auch in iPhone- und iPad-Prozessoren gefährdet, bestätigte Apple am Do...

Wir kennen endlich alle iPad Pro-Spezifikationen von 2018
October 21, 2021

Wir kennen endlich alle iPad Pro-Spezifikationen von 2018Prozessorgeschwindigkeit und RAM vervollständigen die Liste der 2018 iPad Pro-Spezifikatio...