Bloomberg.- Apple está trabajando en un sistema de sensores tridimensionales posteriores para el iPhone en 2019, un paso más para convertir al teléfono en un dispositivo líder de realidad aumentada, según fuentes familiarizadas con el plan.
Apple está evaluando una tecnología diferente a la que usa actualmente en el sistema de sensor TrueDepth en la parte frontal del iPhone X, dijeron las fuentes.
El sistema existente se basa en una técnica de luz estructurada que proyecta un patrón de 30,000 puntos láser en la cara del usuario y mide la distorsión para generar una imagen 3D precisa para la autentificación.
El previsto sensor orientado hacia atrás utilizaría en cambio un enfoque de tiempo de vuelo (time of flight, TOF), que calcula el tiempo que tarda un láser en rebotar en los objetos circundantes para crear una imagen tridimensional del entorno.
Se espera que la compañía mantenga el sistema TrueDepth, de modo que los futuros iPhones tendrán capacidades de detección 3D en las partes frontal y posterior. Apple comenzó las conversaciones con posibles proveedores del nuevo sistema, dijeron las fuentes.
Entre las empresas que fabrican sensores TOF figuran Infineon Technologies, Sony , STMicroelectronics NV y Panasonic. Las pruebas de la tecnología aún se encuentran en etapas iniciales y podría no ser utilizada en la versión final del teléfono, dijeron las fuentes, quienes solicitaron que no se les identificara hablando sobre características que no se han publicado.
Una portavoz de Apple no quiso efectuar comentarios.
La adición de un sensor orientado hacia atrás permitiría más aplicaciones de realidad aumentada en el iPhone. El máximo ejecutivo de Apple, Tim Cook, considera que la realidad aumentada es tan revolucionaria como el propio teléfono inteligente.
Se ha referido con entusiasmo a la tecnología en el programa de televisión Good Morning America y durante las conferencias telefónicas de resultados le presta casi tanta atención como al crecimiento de las ventas.
“Ya estamos viendo cosas que transformarán la forma en que uno trabaja, juega, se conecta y aprende”, dijo en la última llamada telefónica. “La realidad aumentada va a cambiar la forma en que usamos la tecnología para siempre”.
Apple agregó una herramienta de software llamada ARKit este año, la que facilitó a los desarrolladores crear aplicaciones para el iPhone usando realidad aumentada.
La herramienta es buena identificando superficies planas y colocando objetos virtuales o imágenes sobre ellas. Pero tiene problemas con los planos verticales, como paredes, puertas o ventanas, y carece de una percepción de profundidad precisa, lo que dificulta que las imágenes digitales interactúen con cosas reales.
De modo que si un tigre digital camina detrás de una silla de verdad, la silla aún se muestra detrás del animal, destruyendo la ilusión. Un sensor tridimensional posterior ayudaría a remediar eso.
Realidad aumentada en el iPhone X
El iPhone X utiliza su sensor frontal 3D para Face ID, un sistema de reconocimiento facial que reemplazó el sensor de huellas digitales utilizado en modelos anteriores para desbloquear el teléfono.
Los problemas de producción con el conjunto de sensores ralentizaron inicialmente la fabricación del emblemático teléfono inteligente, en parte porque los componentes deben ensamblarse con un alto grado de precisión.
Mientras el enfoque de luz estructurada requiere que los láseres se coloquen de forma muy precisa, la tecnología TOF se basa en un sensor de imagen más avanzado. Eso puede hacer que los sistemas TOF sean más fáciles de ensamblar en grandes volúmenes.
Google de Alphabet ha estado trabajando con Infineon en la percepción de profundidad como parte de su iniciativa de desarrollo de realidad aumentada, Project Tango, presentado en 2014.
El chip Infineon ya se utiliza en Phab 2 Pro de Lenovo Group y ZenFone de Asustek Computer, ambos funcionan en el sistema operativo Android de Google.