iOS 13 använder ARKit för att lösa en av de största FaceTime -klagomålen
![IOS 13 använder ARKit för att lösa en av de största FaceTime -klagomålen 2018 iPad Pro Animoji](/f/0f1a21d124a74abee4db9e8960bd6e95.jpg)
Foto: Apple
Det finns något konstigt skrämmande med ögonkontaktproblemet med videosamtalstjänster som FaceTime och Skype.
Det händer för att användare måste välja antingen att titta direkt på kameralinsen och missa vad som händer på skärmen, eller titta på skärmen och tycks stirra på lyssnarens hals.
Det är inte idealiskt för ett verktyg som är avsett att få det att verka som att du har en konversation ansikte mot ansikte. Lyckligtvis fixar Apple denna brist i iOS 13.
![](/f/ed50c3af10a4f65457612c6a4bea7b59.jpg)
Dave Schukin 🤘
@schukin
![Bild](/f/b4892855afe534d22307bd9a518c7fbf.jpg)
1.4K
427
FaceTime Attention Correction i iOS 13
Den nya FaceTime Attention Correction -funktionen finns i den senaste iOS 13 -utvecklarbetan. Det är bara tillgängligt för iPhone XS och XS Max -enheter, men det är ändå uppskattat.
För att få bort detta ögonkontakt-trick använder Apple sin välkända augmented reality-plattform, ARKit. I huvudsak kartlägger den en användares ansikte och ändrar sedan ögonens position i realtid under FaceTime -videosamtal.
Med andra ord ser du en bildad bild som är utformad för att se mer naturlig ut. Det är helt falskt, men det borde inte vara alltför märkbart för de flesta användare.
För mer information om de andra fantastiska funktionerna som finns i den senaste iOS 13 -beta, kolla in sammanfattning av min Cult of Mac kompis Charlie.
Via: Gränsen