Desde la verificación de identidad, pasando por controles de acceso, hasta el desbloqueo de dispositivos inteligentes, el reconocimiento facial es una tecnología ampliamente usada, para variados propósitos.
Un equipo internacional de investigadores de Australia, Nueva Zelanda e India han querido llegar más lejos con esta tecnología, utilizando la expresión de una persona para manipular objetos en un entorno de realidad virtual sin el uso de controles manuales.
Reconocimiento facial para potenciar la realidad virtual
Fuera de poner a nuestro alcance una forma novedosa de usar la realidad virtual, la técnica propuesta también podría permitir que las personas con incapacidades físicas o mentales puedan interactuar con las manos libres en la realidad virtual, sin necesidad de usar controladores diseñados para personas con todas las capacidades.
En el marco del primer estudio mundial dirigido por la Universidad de Queensland, los expertos en interacción humano-computadora utilizaron técnicas de procesamiento neuronal para capturar la sonrisa, el ceño fruncido y la mandíbula apretada de una persona y usaron cada expresión para desencadenar acciones específicas en entornos de realidad virtual.
Uno de los investigadores involucrados en el experimento, el profesor Mark Billinghurst de la Universidad del Sur de Australia (UNISA), dice que el sistema ha sido diseñado para reconocer diferentes expresiones faciales a través de cascos de RV.
«Se usó una sonrisa para activar el comando ‘mover’; fruncir el ceño para el comando ‘detener’ y apretar los dientes para el comando ‘acción’, en lugar de que un controlador de mano realizara estas acciones», comentó en conversación con la UNISA. «Esencialmente, estamos capturando expresiones faciales comunes como ira, felicidad y sorpresa e implementándolas en un entorno de realidad virtual», agregó.
Los investigadores diseñaron tres entornos virtuales (feliz, neutral y aterrador) y midieron el estado cognitivo y fisiológico de cada persona mientras estaban inmersos en cada escenario.
Mediante la reproducción de tres expresiones faciales universales (una sonrisa, el ceño fruncido y un apretón), exploraron si los cambios en el entorno desencadenaban una de las tres expresiones, en función de las respuestas emocionales y fisiológicas.
Por ejemplo, en el ambiente feliz, los usuarios tenían la tarea de moverse por un parque para atrapar mariposas con una red. El usuario se movió cuando sonrió y se detuvo cuando frunció el ceño.
En el entorno neutral, los participantes tenían la tarea de navegar por un taller para recoger los artículos esparcidos por todas partes. La mandíbula apretada desencadenó una acción, en este caso recoger cada objeto, mientras que los comandos de movimiento de inicio y detención se iniciaron con una sonrisa y el ceño fruncido.
Se emplearon las mismas expresiones faciales en el entorno aterrador , donde los participantes navegaban por una base subterránea para disparar a los zombis.
«En general, esperábamos que los controladores de mano funcionaran mejor, ya que son un método más intuitivo que las expresiones faciales, sin embargo, las personas informaron sentirse más inmersos en las experiencias de realidad virtual controladas por expresiones faciales», comentó Billinghurst.
Aunque esta investigación ha presentado avances considerables, la tecnología en sí necesita ser pulida para que resulte más fácil usarla. Además, los hallazgos del estudio han sido publicados en el International Journal of Human-Computer Studies.
Fuente info
Autor: Nicolás Verdejo