cerebro

Ingenieros en EE.UU. logran convertir señales cerebrales en habla

Este avance sienta las bases para las personas que no pueden hablar como quienes viven con esclerosis lateral amiotrófica (ELA) o se recuperan de un accidente cerebrovascular, recuperen la habilidad de comunicarse con el mundo exterior.


Neuroingenieros de la Universidad de Columbia, en Nueva York (EE.UU.), crearon un sistema que traduce pensamientos en un discurso inteligible y reconocible, lo que podría suponer nuevas formas para que los computadores se comuniquen directamente con el cerebro, según una investigación conocida este martes.

Al monitorear la actividad cerebral de alguien, la tecnología puede recrear las palabras que una persona puede escuchar con una claridad sin precedentes.

Este avance, que aprovecha el poder de los sintetizadores de voz y la inteligencia artificial, sienta las bases para las personas que no pueden hablar, como quienes viven con esclerosis lateral amiotrófica (ELA) o se recuperan de un accidente cerebrovascular, recuperen la habilidad de comunicarse con el mundo exterior.

"Nuestra voz nos ayuda a conectarnos con nuestros amigos, familia y el mundo alrededor nuestro, por lo que perder el poder de la voz debido a una lesión o enfermedad es tan devastador", dijo Nima Mesgarani, investigadora principal en el Instituto de Comportamiento Mental Cerebral Mortimer B. Zuckerman de la Universidad de Columbia.

La experta consideró que han demostrado que, "con la tecnología correcta, los pensamientos de estas personas pueden ser descifrados y entendidos por cualquier otro oyente".

Décadas de investigación han demostrado que cuando las personas hablan e incluso se imaginan hablando, aparecen patrones reveladores de actividad en su cerebro.

Un patrón de señales distinto también aparece cuando escuchamos a alguien hablar o imaginamos que escuchamos.

El equipo de investigadores recurrió a un "vocoder", un algoritmo computarizado que pueden sintetizar palabras después de haber recibido capacitación en grabaciones de personas que hablan.

"Esta es la misma tecnología usada por Amazon Echo y Siri de Apple que da respuestas verbales a nuestras preguntas", explicó Mesgarani.

Para enseñar al "vocoder" a interpretar la actividad cerebral, Mesgarani formó equipo con Ashesh Dinesh Mehta, un neorocirujano del Northwell Health Physician Partners Neuroscience Institute, quien atiende a pacientes con epilepsia, algunos de los cuales deben someterse regularmente a operaciones quirúrgicas cerebrales.

"Trabajando con el doctor Mehta, le pedimos a pacientes epilépticos que ya se habían sometido a cirugías cerebrales que escucharan las frases pronunciadas por diferentes personas mientras medíamos los patrones de actividad cerebral", afirmó Mesgarani, quien señaló que esos patrones neurales entrenaron el "vocoder".

El equipo planea más adelante probar las palabras y frases más complicadas e incluso aspira a que su sistema sea parte de un implante similar a los usados con algunos pacientes con epilepsia que traducen los pensamientos del usuario directamente en palabras.

"Esto le daría a alguien que ha perdido su capacidad de hablar, bien sea por una lesión o por enfermedad, una nueva oportunidad de conectarse con el mundo", agregó.

Comenta

Por favor, inicia sesión en La Tercera para acceder a los comentarios.