Ann, que perdió la capacidad de hablar después de un derrame cerebral, prueba un sistema que decodifica las palabras y expresiones faciales previstas a partir de su actividad cerebral. Foto: NOÉ BERGER
• Mire a una persona incapaz de hablar durante años ‘hablar’ usando un nuevo implante cerebral
• Dos nuevas tecnologías pueden decodificar las palabras deseadas varias veces más rápido que los sistemas anteriores con hasta un 75% de precisión.
Cuando se trata de hablar, nuestro cerebro hace el trabajo pesado. Subconscientemente dirige la compleja coordinación de labios, lengua, garganta y mandíbulas que necesitamos para pronunciar palabras. Y sigue dirigiendo, incluso en personas con parálisis o que no pueden convertir estas órdenes en palabras.
Ahora, los científicos han aprovechado este fenómeno para crear implantes cerebrales que transforman esta actividad neuronal en texto con una velocidad y precisión sin precedentes. En dos nuevos estudios, ambos publicados hoy en Nature , los dispositivos permitieron a dos personas «hablar» por primera vez en más de una década. Los implantes produjeron habla a partir de la actividad cerebral con aproximadamente un 75% de precisión y a una velocidad casi la mitad que la del lenguaje natural: resultados mucho mejores que con cualquier tecnología anterior.
«Es un punto de inflexión para la población que no tiene mejores opciones en este momento», afirma Vikash Gilja, ingeniero eléctrico de la Universidad de California (UC), San Diego, que no participó en los estudios. «Estamos a un paso sorprendente» de convertir la tecnología en dispositivos médicos comercialmente viables, añade.
La mayoría de los intentos anteriores de desarrollar interfaces cerebro-computadora para el habla han aprovechado electrodos implantados en el cerebro para monitorear las convulsiones en personas con epilepsia. El discurso resultante fue lento y propenso a errores, pero la tecnología era lo suficientemente prometedora como para que los investigadores comenzaran ensayos clínicos en personas que no podían hablar.
Un grupo, dirigido por el neurocirujano Edward Chang de UC San Francisco, publicó sus primeros experimentos con un participante paralizado en 2021, informando que podía producir oraciones a un ritmo de hasta 18 palabras por minuto . Desde entonces, el grupo ha ido mejorando la tecnología, duplicando el número de electrodos en el implante y mejorando el algoritmo utilizado para predecir palabras a partir de señales cerebrales .
En el nuevo estudio, el equipo probó su sistema en una mujer llamada Ann; Hace 18 años, un derrame cerebral interrumpió la capacidad de su cerebro para transmitir señales motoras al resto de su cuerpo.
Los investigadores colocaron series de electrodos, del tamaño de un encendedor pero delgados como un papel, sobre la superficie de las áreas del cerebro que controlan los músculos involucrados en el habla. Durante dos semanas, los científicos le pidieron a Ann que dijera palabras mostradas en una pantalla mientras su algoritmo aprendía a reconocer cuáles de sus señales neuronales se correlacionaban con 39 fonemas diferentes: los sonidos que forman las palabras. Luego, el algoritmo intentó predecir las siguientes palabras probables en las oraciones, de manera muy similar a lo que hace ChatGPT.
Un dispositivo en el cuero cabelludo transmite la actividad eléctrica de los electrodos implantados a una computadora que decodifica las señales. Foto: NOÉ BERGER
Al elegir entre 50 palabras, el algoritmo tuvo una precisión del 95% al hacer coincidir la actividad neuronal de Ann con la palabra que probablemente estaba tratando de pronunciar, informa el equipo. Con un amplio repertorio de 1024 palabras, la precisión cayó al 75%. Los investigadores predicen que darle al programa un vocabulario más amplio de 39.000 palabras para elegir produciría una tasa de precisión del 72%. El algoritmo incluso pudo utilizar las señales neuronales de Ann para determinar con precisión palabras para las que no había sido entrenado específicamente para reconocer.
La traducción fue mucho más rápida que los sistemas anteriores, alcanzando 78 palabras por minuto. El habla normal contiene más de 150 palabras por minuto. Pero una persona parcialmente paralizada que utiliza pequeños movimientos musculares para seleccionar letras sólo puede producir unas pocas palabras por minuto.
El equipo de Chang también utilizó grabaciones neuronales para predecir las expresiones faciales previstas por Ann y para controlar un avatar, que hablaba con una voz sintetizada a partir de grabaciones de ella hablando hace décadas. Un avatar de este tipo podría encajar perfectamente en una llamada de Zoom, lo que permitiría a una persona expresar sus pensamientos de forma más natural casi en tiempo real, dice Chang. En una entrevista con los investigadores, Ann dijo que le gustaría convertirse en consejera y que un avatar podría ayudarla a tranquilizar a sus clientes.
Un segundo estudio dirigido por el investigador de prótesis neuronales Frank Willett de la Universidad de Stanford y sus colegas logró resultados muy similares utilizando un tipo diferente de conjunto de electrodos. Éste, mucho más pequeño que el otro implante, penetra más profundamente en el cerebro para medir la activación de neuronas individuales a corta distancia y en alta resolución. Los investigadores probaron su sistema con Pat Bennett, quien ha padecido la enfermedad neurodegenerativa esclerosis lateral amiotrófica durante 11 años y ha perdido la capacidad de controlar sus músculos faciales. Lograron una precisión del 91 % cuando Bennett intentó leer de un conjunto de 50 palabras elegidas para ayudar a expresar necesidades como «sediento» y «familia». Cuando el banco de palabras se amplió a 125.000, la precisión cayó al 76,2%.
Una computadora decodifica el habla del implante cerebral de Pat Bennett mientras ella intenta pronunciar oraciones. STEVE FISCH
Willett dice que es alentador que los cerebros de las mujeres no hayan perdido la capacidad de hablar después de tantos años. «Es sorprendente que todavía se pueda ver esta representación neuronal preservada». Implantar a más pacientes ayudará a los investigadores a determinar en qué medida difiere el diseño de esta región cerebral que controla el habla entre los pacientes, y en qué medida es necesario personalizar el algoritmo y el implante.
Cada sistema tiene sus pros y sus contras, afirma Gilja. Los electrodos de superficie utilizados por el grupo de Chang captan menos información de las neuronas, por lo que el sistema depende más de algoritmos que predicen oraciones completas. Eso podría significar un tiempo de demora más largo que el método de electrodo más sensible y penetrante que utiliza el equipo de Willett, que permite la predicción de palabras individuales en tiempo real. Pero los electrodos en forma de aguja pueden desviarse ligeramente con el tiempo y grabar desde diferentes neuronas, lo que requiere actualizaciones del algoritmo, señala Willett.
Los dos hallazgos representan «un gran salto», dice Alexander Huth, neurocientífico e informático de la Universidad de Texas en Austin que no participó en ninguno de los estudios. Los sistemas implantados son mucho más precisos que un dispositivo no implantado que desarrolló a principios de este año para descifrar el significado de las palabras a partir de un nivel superior de actividad cerebral en lugar de señales motoras, señala, aunque este último puede funcionar mejor en personas con daños en las regiones del cerebro que controlan el movimiento.
Las personas que eventualmente utilizarían estas tecnologías deben ser parte del proceso de investigación para guiarles sobre la mejor manera de satisfacer sus necesidades, señala Melanie Fried-Oken, logopeda de la Universidad de Ciencias y Salud de Oregón, quien se desempeña como consultora del consorcio de investigación. detrás de la tecnología que utilizó el equipo de Willett. Aquellos que no pueden hablar no sólo deben poder transmitir sus necesidades básicas, dice, sino también tener conversaciones personales significativas, lo que podría requerir más velocidad o precisión.
En este momento, estos sistemas se basan en cables que pasan a través del cráneo conectados a un procesador. También se requiere un grupo de técnicos para monitorear y ajustar el sistema. Los investigadores ahora están trabajando en formas para que los implantes transmitan de forma inalámbrica a dispositivos externos. En el futuro, las empresas podrán desarrollar sistemas portátiles que sinteticen la voz y que el usuario pueda controlar por sí mismo, afirma Gilja. «Ese es el futuro que me entusiasma».
Sara Reardon es una periodista independiente que cubre ciencias biomédicas, ambientales y sociales desde la hermosa Bozeman, Montana.
SUSCRÍBETE AL BOLETÍN DE ASESORES CIENTÍFICOS
Las últimas noticias, comentarios e investigaciones, gratis en su bandeja de entrada todos los días
SUSCRIBIRSE
Compartir esto::
- Haz clic para compartir en Twitter (Se abre en una ventana nueva)
- Haz clic para compartir en Facebook (Se abre en una ventana nueva)
- Haz clic para compartir en LinkedIn (Se abre en una ventana nueva)
- Haz clic para compartir en WhatsApp (Se abre en una ventana nueva)
- Haz clic para compartir en Pinterest (Se abre en una ventana nueva)
- Haz clic para enviar un enlace por correo electrónico a un amigo (Se abre en una ventana nueva)