iOS 13 y iPadOS brindarán a los usuarios recientes de iPhone y iPad la capacidad de capturar imágenes y videos con sus cámaras frontal y trasera simultáneamente.
Apple dice que también es posible aprovechar varios micrófonos para "dar forma" al sonido que se captura. Anima a los desarrolladores a aprovechar las nuevas capacidades para llevar imagen en imagen y audio espacial a sus aplicaciones.
Apple introdujo la capacidad de capturar imágenes de video con múltiples cámaras en la Mac en 2011 que OS X Lion. Sin embargo, nunca ha sido posible con iPhone y iPad. Eso va a cambiar este año.
Apple está introduciendo nuevas API que permitirán que las aplicaciones de la cámara aprovechen los módulos de la cámara frontal y trasera simultáneamente. Necesitarás uno de sus últimos dispositivos para disfrutar de este cambio.
La compatibilidad con varias cámaras llega a iOS este otoño
Con la compatibilidad con varias cámaras, podrá filmar una escena con la cámara trasera de su iPhone y, al mismo tiempo, capturar su reacción con su cámara frontal para selfies por primera vez. Y no solo se guardan videos y fotos.
También podrá capturar los metadatos, el audio y la profundidad de varias cámaras y micrófonos simultáneamente. Además, los desarrolladores podrán aprovechar ambos módulos de cámara TrueDepth.
Eso significa que podrá separar las transmisiones capturadas por los lentes gran angular y telefoto del iPhone. Y podrás cambiar entre ellos sobre la marcha durante la reproducción en la aplicación Fotos.
Hay limitaciones
Para disfrutar de estas funciones, necesitará uno de los dispositivos iOS más nuevos de Apple. Solo el iPhone XS, iPhone XS Max, iPhone XR y 2018 iPad Pro los reciben. Es más, existen límites a lo que se puede hacer con él.
Solo se puede utilizar una determinada combinación de sensores de cámara simultáneamente. Y solo puede ejecutar una instancia de multicámara en cualquier momento. Por tanto, es imposible utilizar la captura multicámara en varias aplicaciones de forma simultánea.
En el iPhone XS, por ejemplo, si está capturando transmisiones separadas desde la cámara dual en la parte posterior del teléfono, no puede capturar también desde el módulo de la cámara para selfies.
Del mismo modo, la captura de la cámara autofoto solo se puede combinar con imágenes o videos de uno de los módulos de la cámara trasera del iPhone, ya sea el sensor de gran angular o telefoto.
Las fotos de retrato también serán mejores
Apple también está introduciendo una nueva tecnología para iOS 13 llamada Semantic Segmentation Mattes. Esto lo ayudará a identificar mejor aspectos como la piel, el cabello y los dientes para mejorar las fotografías y los efectos de Retrato.
En una demostración en la WWDC, Apple mostró cómo se podía separar la cara de una persona de su cabello y dientes para poder aplicar pintura facial virtual y tinte para el cabello en los lugares correctos.
Por supuesto, los desarrolladores deberán aprovechar estas mejoras y API antes de que podamos disfrutarlas en iOS 13 y iPadOS. Con suerte, algunos lo harán para cuando estas actualizaciones se lancen a todos este otoño.
Para obtener más información sobre las mejoras de Apple en la tecnología de las cámaras, consulte su sesión de captura multicámara. en el sitio web de la WWDC.