El año pasado, Apple presentó el primer iPhone con LiDAR. Esta tecnología detecta la luz y distancia que le separa de objetos, de ahí su nombre light detección and ranging en inglés. Se trata de un sensor que la compañía ha posicionado de varias formas, con un especial énfasis en la mejora de la fotografía y las nuevas experiencias en realidad aumentada.
Este año seguimos encontrando un LiDAR en los iPhone 13 Pro y iPhone 13 Pro Max, como era de esperar. Pero apenas se mencionaron sus ventajas, pues ya se dan por hecho. Puede que incluso el silencio en torno a la realidad aumentada en la presentación de este año levante las suspicacias de no pocos usuarios. Aunque la realidad es que el LiDAR del iPhone sigue aportando grandes ventajas.
Un iPhone con LiDAR que entiende el mundo que le rodea
Hemos empujado a la industria desde hace años con la tecnología de profundidad. Hoy continuamos con esa innovación con el escáner LiDAR. [El LiDAR] mide cuánto tarda la luz en alcanzar un objeto y volver.
Hemos adoptado esta tecnología para el iPhone y con el aprendizaje automático y los frameworks de profundidad de iOS 14, el iPhone comprende el mundo que te rodea y construye un mapa de profundidad preciso de la escena. Hace posible el escaneo de objetos y habitaciones, efectos de foto y vídeos, y una colocación precisa de objetos de RA.
El sensor LiDAR incluido en los iPhone es similar al que ya tiene el iPad Pro de 2020 y que nuestro compañero Julio César analizó en su momento. Este escáner se encuentra combinado con el procesador y su motor neuronal para ofrecer más posibilidades en realidad aumentada.
Apple destacó durante su presentación las diferentes apps que hacen uso de esta tecnología. Hay una en concreto, llamada JigSpace, que permite simular cómo quedarían espacios de trabajo complejos. En vez de requerir un estudio de semanas a un coste de decenas de miles de dólares, con esta app y un iPhone con LiDAR, una empresa es capaz de hacerlo “en horas” a una fracción del coste.
Además de estas apps profesionales, el LiDAR da una experiencia superior en apps de campos educativos. En la educación vemos usos muy extendidos para entender cómo funcionan modelos de ríos, montañas, animales y más usos. Pero lo que realmente llama la atención del LiDAR y que más atraerá al usuario medio, es la aplicación del escáner de escenas a la fotografía.
LiDAR en las cámaras para mejorar la fotografía en el día a día
El LiDAR permite a los iPhone y iPad “ver” en la oscuridad. Un uso perfecto para situaciones de luminosidad baja. En los últimos años, la fotografía en condiciones de poca luz ha sido uno de los puntos que más han empujado los fabricantes de smartphones.
Una imagen de ejemplo compartida por Apple, donde se hace una foto en modo retrato y con poca luz utilizando el iPhone 12 Pro Max.
Hace dos años, Apple desveló su Night Mode en los iPhone 11 Pro. Y desde el año pasado, aspira a llegar un paso más allá con la inclusión del escáner LiDAR para fotografía. Según la compañía, el LiDAR de las cámaras de los iPhone aporta lo siguiente:
- Aumento de la precisión a la hora de enfocar escenas.
- Reducción del tiempo de captura de una foto.
- Autoenfoque en baja luminosidad hasta seis veces más rápido.
- Fotos en modo retrato para el modo noche.
Los iPhone con este sensor mejoran en la experiencia de la fotografía con poca luz. Uno de los caballos de batalla de la fotografía en smartphone, donde el ruido y la lentitud al tomar fotos son dos grandes obstáculos. Con el LiDAR en el iPhone, Apple está atajando directamente estos problemas. Las fotos son más rápidas, con menor “grano” y mucho más definidas.
Desde luego, es una mejora donde la fotografía en condiciones de poca luminosidad es la clara beneficiada. Llevamos ya un año con ella y podemos asegurar que el cambio es bien perceptible.