Devolver el habla a personas que la perdieron es una meta cada vez más factible gracias a los avances realizados con implantes cerebrales, según muestran dos experiencias divulgadas este miércoles en la revista Nature; que muestra a través de dos estudios.
En su caso, esa enfermedad se tradujo inicialmente en una dificultad para expresarse, hasta perder la capacidad de hablar.
Investigadores del departamento de neurocirugía de la universidad estadounidense de Stanford le introdujeron en marzo de 2022 cuatro pequeños chips con 64 microelectrodos, fabricados con silicona.
Incrustado en 1,5 milímetros en la corteza cerebral, estos chips registran las señales eléctricas producidas por las partes del cerebro dedicadas al lenguaje. Esas señales son llevadas fuera del cerebro a través de un conjunto de cables y analizadas con un algoritmo, que en los últimos cuatro meses "aprendió" a interpretar su sentido.
Es decir, el algoritmo asocia las señales a fonemas y así compone palabras, con la ayuda de un modelo de lenguaje. Gracias a este dispositivo tecnológico, Bennet habla a través de una pantalla a un ritmo de más de 60 palabras por minuto.
Su porcentaje de error en un vocabulario de 50 palabras es del 10%, mientras que antes era de más del 20%.
Implante cerebral: Voz artificial
El segundo avance, descrito en Nature, fue llevado a cabo por el equipo de Edward Chang en la universidad de California, su dispositivo se basa en una banda de electrodos instalados en la corteza cerebral; la eficacia resulta comparable a la del estudio de Stanford, con una media de 78 palabras por minuto.
Representó un avance enorme para la paciente en que instalaron los electrodos. Tras haber sufrido una paraplejia debido a una hemorragia cerebral, hasta ahora su capacidad de habla era de 14 palabras por minuto, con la ayuda de una técnica que seguía los movimientos de la cabeza.
Una de las especificidades del dispositivo del laboratorio californiano es que no solo analiza las señales eléctricas de la parte del cerebro dedicada al lenguaje, sino también los movimientos de los labios, la lengua y los otros músculos faciales que producen los sonidos.
La interfaz entre el cerebro y el dispositivo de este laboratorio no solo produce lenguaje en forma de texto en una pantalla, sino también con una voz artificial y un avatar que reproduce las expresiones faciales del paciente cuando se expresa.
El laboratorio de la universidad de California aspira ahora a desarrollar una versión sin hilos del mismo mecanismo.
Esto tendría "consecuencias profundas para la independencia y las interacciones sociales" del paciente, destaca David Moses, coautor del estudio y profesor de neurocirugía en la universidad de San Francisco.
FUENTE: AFP