Dos personas recuperan el habla gracias a implantes cerebrales
Los investigadores lograron traducir las señales neuronales en palabras con unos dispositivos experimentales en una mujer con ELA y otra que sufrió un ictus
Jaimie Henderson se empezó a interesar por las personas que pierden la capacidad de comunicarse desde muy pequeño. En una presentación por videollamada de su última investigación en este campo, el investigador de la Universidad Stanford (EE UU) recuerda ahora que, cuando tenía cinco años, su padre sufrió un accidente de tráfico muy grave. “Él seguía contando chistes, y yo me reía de sus bromas, pero no le entendía porque su capacidad de hablar estaba muy dañada”, dijo. Eso le llevó a estudiar cómo codifican el movimiento y el habla las neuronas, para después buscar la forma de recuperarlos en ...
Jaimie Henderson se empezó a interesar por las personas que pierden la capacidad de comunicarse desde muy pequeño. En una presentación por videollamada de su última investigación en este campo, el investigador de la Universidad Stanford (EE UU) recuerda ahora que, cuando tenía cinco años, su padre sufrió un accidente de tráfico muy grave. “Él seguía contando chistes, y yo me reía de sus bromas, pero no le entendía porque su capacidad de hablar estaba muy dañada”, dijo. Eso le llevó a estudiar cómo codifican el movimiento y el habla las neuronas, para después buscar la forma de recuperarlos en personas con daños neurológicos. Henderson es el líder de uno de los dos trabajos que hoy publica Nature y que dan esperanza de volver a comunicarse a muchas personas como su padre.
El primero de estos trabajos, liderado desde la Universidad Stanford, tuvo como paciente a Pat Bennet, una mujer de 68 años que fue diagnosticada con ELA (esclerosis lateral amiotrófica) en 2012. De las distintas manifestaciones de la enfermedad, a Bennet le tocó una versión que le ha permitido seguir moviéndose, aunque con creciente dificultad, pero le arrebató el habla. Aunque su cerebro no tiene dañada la capacidad para generar el lenguaje, los músculos de sus labios, su lengua, su laringe o su mandíbula no le dejan decir nada.
Ese problema fue resuelto, al menos en parte, a partir de dos sensores —menores que una uña— implantados en su cerebro, para recoger señales de neuronas individuales en dos regiones asociadas al lenguaje: la corteza premotora ventral y el área de Broca (esta última no resultó útil para el objetivo de los investigadores). Los investigadores usaron esos implantes neurales y un software para relacionar las señales cerebrales y los intentos de pronunciar palabras de Bennet. Tras cuatro meses de aprendizaje, el sistema combinó toda esta información con un modelo de lenguaje informático que hizo posible que la paciente produjese frases a 62 palabras por minuto. La cifra es algo menos de la mitad de velocidad del habla normal, y cuando se utilizaba un vocabulario de más de 100.000 palabras se producía un error por cada cuatro palabras pronunciadas, pero los resultados son tres veces mejores que los sistemas de comunicación similares que se habían probado hasta ahora.
En el segundo estudio, liderado por Edward Chang, de la Universidad de California en San Francisco (UCSF), se obtuvieron unos resultados similares con un sistema algo diferente. En este caso, los implantes cerebrales (formados por 253 microelectrodos) recogieron señales de regiones más diversas del cerebro de Ann, una mujer que perdió el habla hace más de 17 años por un ictus. Lograron alcanzar 78 palabras por minuto con un vocabulario base de algo más de 1.000 palabras. La tasa de error fue del 25,5% cuando se incluyeron los movimientos del tracto vocal para reconstruir las palabras y de un 54,4% cuando se tradujeron las señales cerebrales directamente al habla a través de un sintetizador. Aunque sigue estando lejos de poder considerarse una solución práctica para este tipo de dolencias, mejora sustancialmente los resultados de experimentos anteriores.
El equipo de la UCSF quiso añadir además un avatar a su interfaz cerebro-máquina porque, según ha explicado Sean Metzger, “el objetivo es recuperar la capacidad de comunicación y de conexión con los seres queridos, no solo ayudar a transmitir unas palabras. Cuando se habla hay un sonido, un énfasis y otras sutilezas que se pierden cuando solo hay un texto”, apunta el investigador. Este avatar personalizado, que traduciría otros elementos comunicativos como la expresión facial a partir de las señales cerebrales, ayudaría a mejorar la conexión del paciente con sus interlocutores. Para recrear la voz, el equipo empleó una grabación de Ann hablando en su boda, antes de sufrir el ictus.
Un salto hacia una solución práctica
En una presentación conjunta online, ambos equipos han afirmado que sus resultados eran comparables y que tenía interés ver cómo ambos métodos de recogida de señales, uno más localizado y el otro tomándolas de más zonas, muestra por primera vez que estas tecnologías pueden ofrecer una solución práctica. Los vídeos de las pruebas muestran que la comunicación de los pacientes aún no es fluida, pero los autores de los dos estudios creen que sus resultados se validan mutuamente y que están en el camino correcto. Hace tres años, el grupo de Chang demostró que con su método era posible descodificar cuatro palabras en personas con parálisis. En ese tiempo, el progreso ha sido exponencial.
Hasta ahora, hay solo medio centenar de personas a las que se han implantado interfaces cerebro-ordenador con microelectrodos para posibilitar su comunicación. Entre las mejoras que plantean para el futuro, además de incrementar la velocidad de comunicación, se incluye el desarrollo de aparatos inalámbricos que no requieran a las pacientes estar conectadas a una máquina. También se deberá averiguar si estos sistemas sirven para recuperar el habla en personas que están completamente atrapadas en su cuerpo y solo se cuenta con sus señales cerebrales para restablecer su comunicación.
Para conseguir estos objetivos, también será necesario ampliar el número de pacientes con los que trabajar, más allá de las dos mujeres que colaboraron en los dos estudios que publica hoy Nature. Es necesario, por ejemplo, saber si lo que aprenden los algoritmos durante las tediosas horas de entrenamiento pueden servir para decodificar el habla en el cerebro de una persona diferente; o también, estudiar si las otras señales cerebrales que produce el paciente, al interpretar lo que otros dicen, pueden producir fallos en la generación de su propio discurso.
Puedes seguir a EL PAÍS Salud y Bienestar en Facebook, Twitter e Instagram.