Un nuevo estudio, publicado en la revista científica 'New England Journal of Medicine', explica cómo han logrado que una persona con esclerosis lateral amiotrófica (ELA), una enfermedad degenerativa de tipo neuromuscular, haya logrado recuperar su habla. Una de las consecuencias que puede tener esta enfermedad es la de ir mermando de forma progresiva la capacidad de hablar.

Así, un equipo de investigadores de la Universidad de California en Davis ha desarrollado una nueva interfaz cerebro-ordenador que, a través del implante de un sensor ha logrado tal hito. Casey Harrell, un estadounidense de 45 años con graves dificultades para comunicarse debido a la ELA, fue capaz de trasmitir con precisión lo que quería decir a los pocos minutos de activar el nuevo sistema.

"Casey lloró de alegría cuando las palabras que intentaba decir aparecieron correctamente en la pantalla. En realidad, todos lloramos con él", subraya uno de los autores de este avance, Sergey Stavisky, neurocientífico de la ya citada Universidad.

Harrell sufría debilidad en brazos y piernas (tetraparesia) y dependía de que otros consiguieran interpretar lo que quería decir para hacerse entender (disartria) cuando se inscribió en el ensayo clínico BrainGate, con el que un equipo de neurocientíficos, cirujanos, ingenieros, informáticos y matemáticos de diferentes centros de EEUU buscaba soluciones para quienes pierden la movilidad o el habla.

En julio de 2023, el equipo de David Brandman, neurocirujano de la Universidad de California Davis, le implantó una neuroprótesis en la región del cerebro responsable de la coordinación del habla (la circunvolución precentral izquierda).

El sensor esta diseñado para registrar la actividad cerebral de 256 electrodos corticales y enviarla a un ordenador, donde los algoritmos decodifican y reproducen en palabras escritas y en voz lo que el paciente quiere comunicar. Sorprendentemente con la misma voz de Harrell, ya que los investigadores entrenaron el software con audios suyos de antes de sufrir ELA.

"La neuroprótesis detecta el intento de mover los músculos y de hablar, lo graba y envía la señal al ordenador, que traduce los patrones de actividad cerebral en un fonema, como una sílaba o unidad del habla, y luego en las palabras que intentan decir", añade Stavisky en un comunicado de la universidad.

El sistema más preciso

Uno de los mayores avances de este dispositivo es la precisión en la decodificación del habla, un 97 %, "la más precisa lograda hasta la fecha", subraya Brandman. El logro es fruto de un minucioso entrenamiento en 84 sesiones de recogida de datos con el paciente a lo largo de 32 semanas, el sistema logró comunicar lo que el paciente quería decir desde la primera sesión.

"Llegados a este punto, podemos descodificar correctamente lo que Harrell intenta decir el 97 % de las veces, lo que es mejor que muchas aplicaciones comerciales para teléfonos inteligentes que intentan interpretar la voz de una persona", destaca Brandman.

En la actualidad, el joven, ha utilizado el sistema a su propio ritmo durante más de 248 horas de conversación para comunicarse en persona y por videochat. "No poder comunicarse es muy frustrante y desmoralizador. Es como estar atrapado, espero que esta tecnología permita a muchas personas reincorporarse a la vida y a la sociedad", sostiene Harrell.

"Esta sistema es transformador porque da esperanza a las personas que quieren hablar pero no pueden. Espero que pueda ayudar a futuros pacientes a hablar con sus familiares y amigos", señala Stavisky.

Estas tecnologías suponen un avance importante respecto a otras interfaces cerebro-máquina previas, que requerían del parpadeo o de intentos de cierta vocalización del paciente para poder comunicarse, puesto que hay enfermos que no pueden hacer ninguna de estas dos cosas.

Estas interfaces llevan tiempo ensayándose pero los avances han sido relativamente lentos y nunca se había llegado a la precisión y eficiencia lograda con esta neuroprótesis. Uno de los mayores retos a superar había sido la inmensa cantidad de datos y tiempo requerido por los programas de aprendizaje automático a través de las señales cerebrales.

El nuevo dispositivo está orientado tanto a enfermos de ELA como de otras enfermedades que paralicen la capacidad de hablar.