European Research Council

¿Cómo te sientes?

El cuerpo es una máquina de sentidos. Estamos a punto de liberar todo su potencial.

El modo en que los humanos perciben el mundo es más extraño de lo que piensas. Investigadores del Consejo Europeo de Investigación (ERC) están desvelando los misterios de los sentidos, ayudándonos a ver con los oídos, a sentir el sonido y a explorar nuevos modos de percepción. Sus ideas abarcan campos como la robótica, las tecnologías llevables (wearables) y los televisores en 9D.

¿Qué te parecería ver con los oídos? ¿O con la lengua?

No es tan disparatado como parece. Hace 50 años, un neurocientífico americano intentó diseñar máquinas para que personas invidentes pudieran percibir el mundo a través de pequeños impulsos eléctricos en su lengua.

 

 

Actualmente en Israel, el investigador Amir Amedi asegura que está a pocos años de conseguir diseñar un sistema tecnológico para que las personas invidentes logren “oír” lo que ven a su alrededor. De igual modo, otros investigadores están explorando cómo se podrían “ver” campos magnéticos o luz infrarroja.

Estamos a punto de lograr descubrimientos que restauren los sentidos perdidos, que ofrezcan nuevas habilidades y que aceleren el desarrollo de robots semejantes a los humanos. El impacto, según predicen los investigadores, abarcará todos los aspectos de la vida: prepárate para ver películas de Hollywood con banda olfativa además de banda sonora.

 

 

Los ojos de la mente

Las personas invidentes pueden aprender a "ver" mediante el sonido y el tacto

¿Cómo vemos el mundo? Durante la mayor parte de la historia de la humanidad, la respuesta ha sido “con los ojos…con qué sino”. El progreso de la ciencia parece haber confirmado dicha hipótesis. Imágenes obtenidas por escáner muestran qué áreas del cerebro se activan cuando realizamos determinadas tareas en las que están implicadas las áreas responsables de la visión, el oído, el olfato, el movimiento y mucho más…

 

Dicha idea se basaba en que nuestros ojos al detectar la luz, transmitían la información al cerebro a través del nervio óptico, donde el centro visual recrea la imagen captada por la vista. Parecía obvio que las personas ciegas nunca verían debido a su incapacidad de detectar la luz. Por tanto, se había asumido que su centro visual estaba inactivo debido a esta falta de información proveniente del ojo o que sería irreversible su reasignación a otras tareas. 

Pero en la década de los 60, el neurocientífico americano Paul Bach-y-Rita tuvo una idea radical: ¿qué pasaría si la información “visual” del mundo que nos rodea pudiera ser percibida por otro de nuestros sentidos? Bach-y-Rita se convirtió en un pionero en la sustitución sensorial. 

Uno de sus proyectos más conocidos fue la instalación de una cámara en blanco y negro en la cabeza, conectada a la lengua con electrodos. La cámara enviaba fuertes impulsos eléctricos a la lengua cuando percibía objetos oscuros y un suave estímulo con tonos más claros. Con el entrenamiento adecuado, una persona ciega era capaz de aprender a construir la imagen del mundo que le rodeaba y describir la imagen que ellos veían.

Fue un avance revolucionario. Cuantos más científicos estudiaron el tema, más se percataron de cómo un sentido podía ser sustituido por otro. La teoría original sobre cómo vemos no estaba totalmente equivocada, pero era incompleta. El cerebro era más flexible – o de plástico - de lo que nadie se esperaba. Como Bach-y-Rita a menudo decía: “Nosotros no vemos con nuestros ojos, vemos con nuestro cerebro”.

Al final de la década de los 60, Bach-y-Rita intentó entrenar a personas para que viesen a través de vibraciones. Utilizando una vieja silla de dentista y una gran cámara de televisión, se propuso construir una máquina que transformaría las imágenes en una serie de vibraciones que podrían ser percibidas como imágenes. Bach-y-Rita no llegó a ser lo bastante reconocido pero asentó las bases de un amplio campo en la investigación sobre el cerebro.

 

¿Viendo con sonido?

A lo largo de medio siglo, y gracias al beneficio de los enormes avances tecnológicos, los dispositivos de sustitución sensorial han ido renaciendo.

Algunos han intentado imitar el sistema de ecolocación usado por los murciélagos para desplazarse en la oscuridad, que consiste en emitir ondas ultrasónicas y en calcular el tamaño y la forma de los objetos basándose en el tiempo que tardan dichas ondas en ser devueltas. Otros están convirtiendo las imágenes en sonidos. Amir Amedi, de la Universidad Hebrea de Israel, ha llevado esto a otro nivel. Gracias a la financiación recibida por el ERC ha aportado nuevos datos sobre cómo funciona el cerebro durante dicha conversión. 

Usando el dispositivo EyeMusic de Amedi, las personas ciegas pueden describir caras, percibir emociones, reconocer posturas corporales y detectar colores. Los objetos grandes son representados por sonidos agudos y los objetos pequeños con un tono suave. La anchura de un objeto es representada por la duración del sonido y el color es expresado por el uso de diferentes instrumentos musicales. 

Cuando el sonido está lejos de tener un hilo musical, 10 horas de entrenamiento son suficientes para enseñar a alguien las bases de este nuevo lenguaje, aunque aprenderlo en profundidad lleve más tiempo. Las posibilidades de restaurar la vista de aquellos cuyos ojos no funcionan correctamente son enormes.

Pero quizá la mayor sorpresa es lo que ocurrió cuando el equipo de Amedi comenzó a escanear el cerebro de la gente usando EyeMusic. Los datos extraídos permitieron concluir que las zonas del cerebro dedicadas a la visión en personas ciegas de nacimiento – cuya causa se atribuía a la atrofia muscular por falta de uso- se activaban a través del sistema auditivo. Así es, el sonido entraba a través de los oídos pero el cerebro lo interpretaba parcialmente en el área considerada para la visión.

Amedi todavía no ha acabado. Su laboratorio también ha desarrollado el EyeCane –un dispositivo que vibra cuando una persona ciega lo agita, proporcionando información sobre la distancia entre la persona y los objetos más cercanos. Los usuarios pueden recorrer un laberinto con los ojos vendados.  De nuevo los centros visuales se activan a través del tacto. Amedi asegura que el dispositivo es relativamente barato de hacer y podría estar disponible en el mercado en los próximos años.

 

Repensando la organización del cerebro

Esta investigación se enfrenta al reto de teorías ya establecidas de cómo el cerebro se organiza o reorganiza por sí mismo. La visión convencional ha sido que hay periodos críticos en nuestro desarrollo temprano en los que la organización del cerebro se establece de por vida. Si los ratones tuvieron un ojo cubierto desde el nacimiento, las células cerebrales normalmente usadas para interpretar la información captada por el ojo serían reasignadas para otra cosa. El cerebro de los bebés era calificado como altamente adaptable, sin embargo el de los adultos era considerado como más rígido, con zonas específicas y dirigidas a funciones específicas.

 

 

“Se pensaba que si alguien no experimentaba la visión en los primeros meses de vida, el centro visual del cerebro no se desarrollaría con normalidad”, dice Amedi. “Estaba extendida la idea de que si alguien no ve caras durante el periodo crítico de los primeros años de vida, no las reconocería en la edad adulta”.

Experimentos desarrollados en adultos usando el dispositivo de sustitución sensorial EyeMusic refutan las afirmaciones anteriores. Aunque el rango de mayor oportunidad para el aprendizaje y desarrollo del cerebro se establece en los primeros años de vida, las personas ciegas de entre 40 y 60 años pueden aprender a ver con solo 10 horas de entrenamiento. 

Sin embargo, no todo el mundo está convencido. Kevin O’Regan del Laboratorio de Psicología de la Percepción de la Universidad de París-Descartes de París, dice que el hecho de que la corteza visual se active ante la estimulación auditiva podría no ser tan concluyente como parece a primera vista. 

“Lo que Amedi ha mostrado es que cuando una persona es ciega se libera el área del cerebro que se conecta con el nervio óptico” asegura. “Yo no llegaría a la conclusión de que esas personas están viendo sonidos: la corteza visual podría ser usada porque esta parte está libre, más que porque esté inherentemente relacionada con el estímulo visual”.

 

Sentidos del futuro

Por lo tanto, ¿qué será lo próximo en la sustitución sensorial? Teniendo conocimiento de la flexibilidad del cerebro de un adulto, Amedi está trabajando en un sistema que combina el algoritmo del EyeMusic con lo último en visión por ordenador y tecnología sensorial para conseguir una imagen más completa. “La inteligencia artificial está consiguiendo paulatinamente especializarse en el reconocimiento de objetos. Nos gustaría unir esta idea con el EyeMusic y quizás añadir un guante táctil para incorporar un estímulo sensorial”.

El ordenador podría contarnos qué es un objeto determinado y dónde está, posiblemente comunicándolo a través de una combinación de sonidos que crean una imagen mental.

Todo ello lleva a preguntarnos qué son realmente la visión, el oído o el tacto.