Larisa Dunai, investigadora de la UPV, innovadora del año para el MIT
La tercera edición del premio Innovadores menores de 35 España, organizada por la edición en español de la publicación MIT Technology Review del Instituto Tecnológico de Massachusets, ha dado a conocer los diez innovadores españoles con más talento del año. Entre ellos se encuentra Larisa Dunai, investigadora del Centro de Investigación en Tecnologías Gráficas de la Universitat Politècnica de València. Dunai ha sido premiada por el desarrollo de EYE2021, unas gafas que, mediante un sistema acústico, mejoran la independencia de personas ciegas.
Las gafas diseñadas por el CITG de la Universidad Politécnica de Valencia son fruto de más de diez años de investigación. Transforman en sonidos las imágenes captadas por dos cámaras de vídeo de una forma muy especial, ya que los sonidos son percibidos cómo formas. El sonido ayuda a las personas ciegas a saber si frente a ellos hay objetos estáticos o móviles que puedan cruzarse en su camino. Las gafas están conectadas a un microordenador que procesa las imágenes y a unos auriculares que el usuario lleva puestos.
Los investigadores de la UPV han desarrollado aplicaciones específicas para corredores de atletismo y están trabajando en nuevos modelos para el esquí e, incluso, para la conducción en circuitos.
El funcionamiento del sistema se basa en el reconocimiento de formas, que posteriormente sustituye por sonidos posicionados sobre la superficie de estas formas reconocidas. Las dos microcámaras analizan el espacio, crean un modelo tridimensional y hacen que suenen puntos de sonido que provienen de la superficie que se está analizando. El trabajo de Larisa ha permitido llagar a uno niveles de representación sonora del espacio francamente prometedores.
“Las cámaras van grabando y nosotros calculamos las distancias partiendo de la información y generando un sonido diferente para cada oído, de manera que el usuario oye que el sonido procede de la superficie del objeto que está mirando, el conjunto de muchos sonidos por segundo permite representar una parte del espacio que la persona está mirando mediante sonidos”, explica Dunai. Estos datos se convierten en unas señales acústicas muy específicas, una serie de clics que la persona con discapacidad visual “percibe directamente en el lóbulo temporal del cerebro” y de la que puede extraer información relativa a la distancia y dirección del sonido. “El pionero en el uso de esta técnica, y quien hizo y definió las bases iniciales del uso de estos sonidos con ciegos, fue el profesor Jose Luis Gonzalez Mora de la Universidad de La Laguna, con quien se trabajó y se colabora estrechamente”, señala la investigadora de la Universitat Politècnica de València.
Larisa Dunai afirma que este sistema no pretende reemplazar al bastón que llevan muchas personas ciegas, ya que éste es mucho más eficaz para detectar, por ejemplo, pequeños desniveles cercanos, como un bordillo de pocos centímetros que bajo determinado ángulo puede ser difícil de ver para el EYE2021. “Sin embargo, las gafas sí son capaces de aportar información sobre elementos más lejanos, fuera del alcance del bastón, lo que las convertiría en un buen complemento”, apunta Dunai.