
Hace cinco años, Casey Harrell, activista de 47 años, perdió la voz como consecuencia de su ELA (Esclerosis Lateral Amitrófica). La enfermedad neurodegenerativa debilitó las conexiones entre su córtex motor y los músculos que controlan su lengua, labios, y laringe, lo que le llevó a perder la capacidad de pronunciar palabras de forma comprensible.
Un implante cerebral le permite volver a “hablar” en tiempo real
Según informan desde Science, sin embargo, recientemente y gracias a un implante cerebral conectado a un algoritmo de aprendizaje, Harrell ha recuperado su “habla” con una voz computarizada generada casi en tiempo real, con una velocidad que lo hace casi indistinguible del habla natural. Mucho más rápido de lo que se había logrado hasta ahora con este tipo de interfaces cerebro-ordenador. El sistema prostético de voz, según describen desde Nature, le permite incluso añadir énfasis en sus frases y cantar melodías simples.
“Es un salto muy grande hacia delante”, celebró Miguel Angrick, neurocientífico de la Universidad John Hopkins (aunque no estuvo involucrado en el proyecto). Antes de ver los resultados, dice, habría estimado que desarrollar un sistema con tal capacidad de traducir la actividad cerebral en habla en tiempo real y prepararlo para su comercialización llevaría de 10 a 15 años más. Estaba equivocado: “Con este estudio, me puedo imaginar que veremos el progreso mucho, mucho antes”, sentencia.
Investigadores y científicos llevan décadas buscando la manera de restaurar el habla, mayoritariamente utilizando electrodos conectados al cerebro de una persona. Estos dispositivos graban la actividad neuronal de la parte del cerebro que coordina los movimientos de la boca y de la garganta que permiten hablar. Estas grabaciones se utilizan para entrenar algoritmos de aprendizaje automático para vincular los patrones de actividad neuronal con palabras concretas - de un vocabulario predeterminado - que el sujeto pronuncia o intenta pronunciar en voz alta. Dicho de otra manera: los algoritmos asignan palabras a corrientes eléctricas concretas que se producen en el cerebro cuando el paciente las dice. En estudios anteriores realizados desde esta aproximación, los pacientes paralizados por derrames o enfermedades cerebrales podían aprender a “hablar” utilizando un repertorio de decenas de miles de palabras, pero la generación de frases era lento, poco natural, tardando en materializarse lo que tardase el modelo de lenguaje en procesar cada palabra.

El sistema también permite entonar y añadir énfasis
Los neurocientíficos Sergey Stavisky y Maitreyee Wairagkar (de la Universidad de California) se lanzaron, junto a sus compañeros, a desarrollar un sistema que fuese capaz de general habla sintética de forma instantánea. Harrell, sin la capacidad de hablar de forma comprensible debido a su enfermedad, ya tenía, por un estudio previo en el que participó, un sistema de 256 electrodos implantados en su córtex motor. Así que se empezó directamente a entrenar el nuevo algoritmo, registrando su actividad cerebral mientras trataba de pronunciar una frase que le mostraban en una pantalla para que dicho sistema aprendiese a asociar los impulsos eléctricos concretos con cada sonido.
Cuando el entrenamiento del algoritmo concluyó, el sistema podía registrar actividad de miles de neuronas, reconocer rápidamente los sonidos de cualquier palabra que Harrell tratase de decir, y pronunciarla en voz alta con una voz sintética. No solo palabras, además, sino que podía reproducir cualquier sonido o combinación de sonidos, aunque no tuviese ningún significado, que Harrell tratase de pronunciar. El algoritmo también podía identificar la actividad neuronal asociada a otros aspectos del habla, como el énfasis en palabras concretas, o la entonación interrogativa al final de una frase. Harrell podía incluso cantar varias notas de una melodía sencilla.
Pero lo más innovador de este algoritmo es que podía generar los mensajes con apenas 25 milisegundos de retraso. Es decir, que en solo 25 milisegundos, es capaz de detectar la actividad neuronal, asociarla con un sonido, generar la frase, y pronunciarla; algo más que el tiempo que tarda la voz de uno mismo en llegar a los oídos, y unas 40 veces más rápido que cualquier otro sistema.

“Debería ser sencillo que los usuarios se comuniquen en varios idiomas sin volver a entrenar el modelo”
Los voluntarios que, por petición de los investigadores, evaluaron lo bien que podían entender a Harrell indicaron que lograron captar un 60% de lo que decía cuando utilizaba la interfaz, frente al 4% de las palabras que producía sin ella. Aunque la cifra está lejos del 98% de precisión alcanzado por el sistema cerebro-texto que Harrell emplea a diario, este tipo de tecnología obliga a turnarse durante las conversaciones. “No puedes interrumpir, no puedes poner objeciones, no puedes cantar”, observa Stavisky.
Otros expertos también han mostrado entusiasmo ante el avance. “Para mí, esto es lo auténtico”, sostiene el neurocientífico Christian Herff, de la Universidad de Maastricht, quien no participó en el estudio. “Obtenemos conversación real en lugar de comunicación tipo WhatsApp”. Debido a que el algoritmo está entrenado para reconocer y producir sonidos - y no palabras predefinidas en inglés -, debería ser sencillo que los usuarios se comuniquen en varios idiomas sin volver a entrenar el modelo, añade Herff. Esta característica podría resultar especialmente útil para lenguas tonales como el chino, en las que la entonación y la intensidad de una sílaba pueden modificar drásticamente su significado. Incluso resulta probable que el sistema pueda recrear el acento propio de cada persona, apunta Angrick.
La gran incógnita ahora, según Herff y Angrick, es hasta qué punto este enfoque será útil para otras personas con trastornos del habla de distinto origen, por ejemplo aquellos causados por lesiones en áreas cerebrales distintas tras un accidente cerebrovascular. Angrick señala, además, que todavía no se sabe si el dispositivo seguirá funcionando a medida que avance la ELA de Harrell y su córtex motor se deteriore. Un nuevo ensayo clínico liderado por David Brandman, coautor del artículo publicado en Nature y miembro de UC Davis, podría empezar a arrojar respuestas en breve. El equipo planea implantar dispositivos de hasta 1.600 electrodos en personas que hayan perdido el habla por un ictus o una enfermedad neurodegenerativa. Wairagkar comenta que añadir electrodos extra a los participantes podría hacer que el habla cerebral generada fuese aún más comprensible que la de Harrell. “Queremos que sea lo suficientemente sólido como para traducirse en comunicación y conversaciones cotidianas”.
Últimas Noticias
Puigdemont reaparece públicamente y avisa de no dar por supuesto el voto de Junts: “Incomodamos a los extremos”
El líder independentista reaparece en Francia en el aniversario de Junts y advierte que su formación no facilitará pactos sin condiciones

Triplex de la Once sorteo 3: Resultados de hoy 27 julio
Juegos Once anunció la combinación ganadora del Sorteo 3 de las 14:00 horas

Una chilena que vive en España explica lo que más le gusta del país: “Hay mucho menos clasismo”
Uno de los aspectos que sorprende a Fran Opazo es la forma en que la sociedad española trata a las personas independientemente de su ocupación

Un empresario español en China explica las razones por las que la mentalidad occidental no encaja allí: “Como me diste descanso los fines de semana me busqué otro trabajo”
El emprendedor Adrián Díaz revela cómo el modelo laboral establecido en nuestro país no puede implementarse en el gigante asiático: lo consideran “antieconómico”

Los hombres también tienen su menopausia: qué es la andropausia y cuándo aparece
A medida que se envejece, el cuerpo masculino reduce la producción de testosterona
