iPhone може отримати задні камери з глибоким зондуванням у 2020 році
Фото: Сміт Сміт/Культ Мака
Як повідомляється, Apple працює над впровадженням системи камер 3D -зондування на задні камери в майбутніх iPhone. Це було б схоже на фронтальну камеру TrueDepth у сучасних iPhone.
Він приєднався б до інших досягнень, таких як Можливість 5G та всі екрани OLED під час оновлення iPhone наступного року.
Digitimes поділився новиною. В стаття з оплатою праці, повідомляється, що Apple "попросила свого партнера по ланцюжку поставок поставити компоненти VCSEL для використання в об'єктиві задньої камери ToF на своїх мобільних пристроях".
Теоретично це може означати, що установка буде доступна і для iPad. Однак я сподіваюся, що це станеться пізніше. Як правило, Apple дебютує багато своїх нових мобільних функцій як точки продажу для iPhone. Пізніше він розповсюджує їх на інші пристрої.
З іншого боку, шановний аналітик Мін-Чі Куо з TF International Securities передбачив восени минулого року, що Apple
Технологія ToF вперше дебютує в iPad. Він з’явиться на iPhone лише пізніше. Здавалося б, це вказує на те, що Apple вважає планшети кращим місцем для AR.VCSEL означає вертикальний лазер, що випромінює поверхню. Це один з основних способів здійснення 3D -зондування для розпізнавання об’єктів або фіксації даних глибини на зображенні за допомогою камери пристрою. VCSEL робить це, використовуючи надзвичайно сфокусоване інфрачервоне світло.
Оновлення задніх камер
Хоча Apple використовує свою технологію визначення глибини для таких функцій, як Face ID, використання технології 3D-зондування задньої камери для iPhone також може бути корисним. Це особливо вірно з огляду на спроби Apple прийняти доповнену реальність.
Поточна версія додатків ARKit показує, що технологія може працювати з існуючими можливостями задньої камери iPhone. Однак краще 3D-зондування може зробити це більш точним і дрібнозернистим.
Це не перший випадок, коли ми чуємо про технологію 3D -зондування, що надходить до задньої камери iPhone. А. звіту на початку цього року сказав, що це дозволить користувачам сканувати своє середовище для створення реконструкцій реального світу.