Har Apple lige købt øjne til Siri?

Æble var enige i denne uge for at købe Israel-baserede PrimeSense for $ 350 millioner.

PrimeSense er bedst kendt for at lave 3D motion-tracking-teknologien inde i Microsofts Kinect.

Betyder det, at Apple planlægger at lave sit eget Kinect? Måske. Men jeg tror, ​​at Apple måske tænker på noget langt mere interessant.

Alle standard forbehold gælder for Apples PrimeSense -opkøb.

At Apple køber en virksomhed, fortæller dig meget lidt om fremtidige produkter. Nogle gange køber virksomheder andre virksomheder som en måde at ansætte et team af talentfulde mennesker. Nogle gange vil de have patenterne. Nogle gange eliminerer de konkurrenter.

Alligevel har Apple en lang historie med at basere store nye brugergrænsefladeinitiativer på et opkøb.

For eksempel var Apples iOS -brugergrænseflade delvist baseret på teknologi fra FingerWorks, der blev erhvervet af Apple to år før iPhone ramte. Siri blev erhvervet i 2010, inden han blev bagt lige ind i iPhone som en kernegrænseflade.

På grund af dets tilknytning til Microsofts Kinect -produkt er det let at antage Apples køb af PrimeSense vil føre til en ny in-the-air gestus-grænseflade til Apple-enheder, især fjernsyn og mulig for tablets og telefoner.

Men PrimeSense bringer kraftfulde muligheder til Apple til alle slags ting, lige fra Kinect-lignende gestus-grænseflader og spil til indendørs kortlægning til Apple Maps.

Faktisk kan PrimeSense -teknologi være eller allerede blevet brugt af virksomhedens lille antal partnere til 3D udskrivning af objektscannere, robotteknologi, augmented reality, sundhedspleje og ja, Kinect og Kinect som in-the-air gestus grænseflader.

Men Apple er ikke den slags virksomhed, der springer promiskuøst ind i denne eller den nye forretning. De er fokuseret på en meget snæver række meget almindelige virksomheder, der for det meste involverer indholdsoprettelse, indholdsforbrug og universel computing og kommunikation.

Noget af det sejeste og mest kraftfulde, Apple kunne gøre med PrimeSense -teknologi, er ikke noget nyt grænseflade, men en ny måde for Siri forstår dig og dit miljø for at tilbyde mere relevant Hjælp.

Ideen om at PrimeSense 3D -sensorer kunne bruges til at give vision til Siri er blevet foreslået, men uudforsket for nylig, herunder af Mark Hachman, Shel Israel og andre.

Men hvis du ser på, hvad PrimeSense-sensorer er i stand til-især PrimeSenses laveffekt system-on-a-chip, mærket Capri-det er let at forestille sig, hvad Apple kunne og burde gøre for at forbedre Siri i tankevækkende måder.

Enhver Kinect -bruger ved, at PrimeSense bruger det, der ligner flere "kameraer", der er rettet mod brugeren, hvilket får nogle til fejlagtigt at antage, at det fungerer som menneskelig 3D -vision.

Mennesker skaber 3D i hjernen ved at fodre den med to "video feeds" af den samme scene fra to lidt forskellige udsigtspunkter. Vision er hardware til at detektere lys og konvertere det til elektriske impulser, plus vådtøjet til at give mening om det.

PrimeSense er baseret på en patenteret teknologi, der er varemærket som "Light Coding", som virksomheden hævder muliggør "sub -millimeter nøjagtighed til 3D -scanning." Denne "Light Coding" bader et værelse, person eller et sæt objekter i lys, der ligger uden for det menneskelige syn, nær men ikke helt inden for infrarødt område, detekterer derefter det reflekterede lys ved hjælp af en almindelig CMOS uden for hylden sensor. En parallel beregningsalgoritme analyserer derefter de returnerede data for at finde ud af, hvor langt hver synlig overflade er fra sensoren (giver præcis 3D). Disse data flettes derefter med farvedata, hvilket giver en forbedret evne til at differentiere objekter fra hinanden. Og ikke kun genstande. PrimeSense -sensorer kan fortælle forskellene mellem et gulv, en væg, et loft og en dør.

PrimeSenses nye Capri -produkt kan forstås som Microsoft Kinect -sensor, men mindre, billigere hurtigere og højere opløsning. Den er lille og billig nok til at blive indbygget i en smartphone uden at hæve prisen markant.

Faktisk er det ikke utænkeligt at tænke på Capri-lignende fremtidige sensorer, der er indbygget i både forsiden og bagsiden af ​​iPhones og iPads og ind i fronterne på en fremtidig iTV og fremtidige iMacs og MacBooks - og mest til fordel for Siri -kontekstuelle opmærksomhed.

Ved at holde din telefon op og tale med Siri kunne Siri lære om dig såvel som dine omgivelser.

For eksempel kan PrimeSense -teknologi gøre Siri i stand til at:

* Kend din placering i huset. Ved at kigge ud gennem din iTV, iMac, iPhone eller iPad og se både dig og dine omgivelser, kunne Siri vide, hvor du er i huset - eller hvis du ikke er hjemme.

* Ved, hvem du er sammen med. Siri kunne vide, om du er alene eller sammen med andre mennesker. Hvis du er alene, kan Siri tale med dig. Hvis du er på en restaurant, viser Siri muligvis udelukkende sine oplysninger på skærmen.

* Læs dine følelser. Ved at scanne dine ansigtsudtryk kunne Siri forbedre sin forståelse for, hvad du siger, og også måle, hvor godt det klarer sig. Hvis en fremtidig version af Siri vokser Google Now-lignende præventive forslag (og det vil det sandsynligvis gøre), kan Siri lære, om forskellige forslag glæder eller frustrerer dig.

* Find ud af, hvad du er opmærksom på. Siri kan blive langt mere høflig og følsom ved at interagere med dig, når du er opmærksom, og ikke afbryde dig, mens du fokuserer på noget eller en anden. Det kan også fortælle, hvad du laver - sover, spiser, lytter med ørepropper, træner osv. - og interagere med dig i overensstemmelse hermed.

* Gæt hvilken størrelse tøj du har på. Du kan simpelthen bestille tøj uden at vide din nøjagtige størrelse.

* Hold styr på størrelserne på dine voksende børn. Da dine børn gik fra tid til anden foran din iMac eller fjernsyn, kunne PrimeSense -teknologi genkende dine børn og overvåge deres højde og tøjstørrelser. Når som helst kan du simpelthen spørge Siri: "Hvor høj er Jason nu?"

* Fortæl dig størrelsen på tingene. Ved at rette din telefon mod et apparat eller et møbel i en butik, kunne Siri fortælle dig, om den ville passe ind i dit hjem (efter allerede at have set og målt alle rum).

Virtuelle assistenter som Siri vil blive bedre med tiden mest ved at blive bedre til kontekstdelen - kende din situation og omstændigheder og hjælpe dig i overensstemmelse hermed.

For at Siri virkelig kan forstå, hvad der sker med dig og dine omgivelser, skal det se sig omkring og have en grundlæggende forståelse for, hvad det ser. PrimeSense -teknologien er virkelig god til det.

Jeg tror, ​​Apple måske lige har købt Siri et virkelig godt sæt øjne.

Seneste blogindlæg

5 Zoom alternativer for at holde dig forbundet under COVID-19
October 21, 2021

Zoom er måske den bedste videokonference-app, men det er lidt som at sige, at Facebook er det bedste sociale netværk. Det kan være sandt 1, men det...

| Cult of Mac
October 21, 2021

Apple tilbyder op til $ 1,5 millioner til alle, der opdager en softwarefejlHvide hat -hackere samles!Foto: United ArtistsFandt du en sårbarhed i Ap...

Hvad kan man forvente af WWDC 2019
October 21, 2021

Hvad kan man forvente af WWDC 2019Det bliver stort!Foto: AppleApples årlige Worldwide Developers Conference er kun få dage væk, og det tegner til a...