El dispositivo, desarrollado por investigadores estadounidenses, transforma casi en tiempo real los impulsos cerebrales en voz digital. Aunque hasta ahora se probó con una sola paciente, el avance genera esperanzas para quienes perdieron por completo la capacidad de comunicarse.
Han pasado 18 años desde el accidente cerebrovascular que dejó a Ann, de 47 años, sin poder pronunciar palabras. Sin embargo, un nuevo implante cerebral equipado con inteligencia artificial (IA) logró, por primera vez, convertir casi simultáneamente sus pensamientos en habla, devolviéndole algo muy cercano a su voz original. El hecho fue anunciado por un equipo de investigadores en California, que publicó sus hallazgos en la revista Nature Neuroscience.
El funcionamiento: pensamientos traducidos a voz en tiempo real
Hasta hace un tiempo, se habían logrado avances previos con interfaces cerebro-ordenador (BCI), pero con un retraso en la decodificación que podía ser de hasta ocho segundos. Ello imposibilitaba cualquier charla fluida. La gran innovación del nuevo sistema es reducir ese margen a 80 milisegundos, una fracción de segundo que permite el diálogo casi instantáneo.
Para ello, la paciente mira oraciones en una pantalla —por ejemplo: “¿Te sientes mejor?”— y las repite en su mente. Los electrodos implantados en la corteza sensomotora del habla captan las señales neuronales y, mediante un modelo de IA entrenado con miles de oraciones previas, las procesan y reproducen. Además, el equipo reconstruyó la voz de Ann con grabaciones de ella antes de sufrir el ACV, para que sonara lo más fiel posible a su tono original.
Alcances y limitaciones
La precisión aún no es total, y el vocabulario al que el algoritmo puede acceder está limitado a 1.024 palabras. No obstante, el principal autor del estudio, Gopala Anumanchipalli, calificó el resultado como un “hito extraordinario”. Aseguró que, si bien están lejos de la meta soñada —que Ann pueda regresar a su vocación como consejera universitaria—, “este avance nos acerca a mejorar la calidad de vida de las personas con parálisis vocal”.
El nuevo sistema utiliza redes neuronales de aprendizaje profundo que fueron entrenadas con las ondas cerebrales de Ann mientras intentaba pronunciar frases en silencio. Gracias a esta tecnología, la paciente oyó de nuevo su voz personalizada, aunque sea a través de una computadora.
Un futuro prometedor
Según Edward Chang, otro de los científicos del proyecto, la experiencia es un primer paso para lograr que personas con parálisis severa vuelvan a comunicarse de manera efectiva. “Las últimas innovaciones en IA aceleran la posibilidad de usar interfaces cerebro-ordenador en la vida diaria. Nuestra intención es perfeccionar la técnica y dotar de más vocabulario y velocidad”, afirmó.
De hecho, el modelo “aprende” de cada intento y se espera que mejore con el tiempo. El equipo reconoce que todavía hay desafíos: ampliar la fluidez del discurso, reducir errores y aumentar la cantidad de frases posibles.
El alcance social
Además de la componente tecnológica, el éxito de la prueba tiene un fuerte componente emocional. Ann recuperó la capacidad de expresarse con su propia entonación, algo que describe como “volver a sentir la voz interior” que creía perdida. Este caso también abre interrogantes éticos y de acceso: ¿cómo se garantizará la disponibilidad de este tipo de tratamiento a quienes lo necesiten? ¿Podrá escalarse para más pacientes?
Con todo, el hallazgo indica un salto en la ingeniería biomédica, fusionando inteligencia artificial e implantes neurales. La posibilidad de que pensamientos se conviertan casi instantáneamente en habla refleja el potencial de la neuroprótesis para transformar la vida de miles de personas con parálisis severa y, de paso, extender las fronteras de lo que se creía posible en la comunicación humana.