En un futuro no muy lejano no será necesario tocar la pantalla para sacarle todo el provecho al teléfono.
En la pasada Conferencia de Desarrolladores de Apple, el estudiante Matt Moss vio algunas de las posibilidades del sistema ARKit 2.0 del nuevo sistema operativo de la empresa, así como de su tecnología de seguimiento visual.
“Vi que el ARKit 2 introdujo el rastreo de los ojos y me pregunté rápidamente si era lo suficientemente preciso como para determinar que punto de la pantalla ve una persona. Inicialmente, empecé a construir el demo para ver si el nivel de seguimiento era posible”, explicó en su cuenta de Twitter.
Al compartir su video, el experimento, señaló que tras ver como funcionaba su prueba comenzó a imaginarse todos sus posibles usos.
“Creo que esta clase de tecnología realmente podría mejorar la vida de personas con discapacidad”, añadió.
Control your iPhone with your eyes. Just look at a button to select it and blink to press. Powered by ARKit 2. #ARKit #ARKit2 #WWDC #iOS pic.twitter.com/ow8TwEkC8J
— Matt Moss (@thefuturematt) 7 de junio de 2018
Con información de Mashable