Edición México
Suscríbete
Ed. México

El Imparcial / Tecnología | Noticias de México | EL IMPARCIAL / Avances Médicos

Nueva IA permite a mujer con parálisis comunicarse casi en tiempo real

Un grupo de investigadores ha desarrollado un innovador implante cerebral

Nueva IA permite a mujer con parálisis comunicarse casi en tiempo real

Un grupo de investigadores de las universidades de California en Berkeley y San Francisco (EE. UU.) ha desarrollado un innovador implante cerebral capaz de convertir la actividad neuronal relacionada con el habla en palabras audibles casi en tiempo real. Gracias a esta tecnología, una mujer de 47 años con tetraplejia ha podido “hablar” nuevamente después de 18 años de silencio.

Superando la latencia en las neuroprótesis del habla

El avance soluciona un desafío histórico: la demora entre la intención de hablar y la emisión del sonido en las neuroprótesis. Aprovechando modelos avanzados de inteligencia artificial (IA), el equipo creó un sistema que convierte las señales cerebrales en voz sintética de forma casi instantánea. El hallazgo fue publicado en Nature Neuroscience.

“Hemos aplicado técnicas similares a las que utilizan asistentes virtuales como Alexa o Siri para descodificar el habla, pero ahora lo hacemos directamente desde las señales cerebrales”, explica Gopala Anumanchipalli, coautor principal del proyecto.

El nuevo sistema emplea un algoritmo de transmisión continua que interpreta la actividad cerebral y la transforma en voz audible, ofreciendo una comunicación mucho más fluida y natural que los métodos previos.

La tecnología detrás del dispositivo

Como parte de un ensayo clínico, los equipos de Anumanchipalli y Edward Chang implantaron una interfaz cerebro-computadora en la paciente, quien había perdido la capacidad de hablar tras un accidente cerebrovascular. Para entrenar el sistema, la mujer miraba frases en una pantalla (como “Hola, ¿cómo estás?”) e intentaba pronunciarlas en silencio.

Durante este proceso, los electrodos colocados sobre la corteza sensomotora del habla registraban la actividad neuronal. Usando estos datos, los investigadores entrenaron una red neuronal profunda capaz de asociar patrones cerebrales con palabras habladas. Sorprendentemente, el sistema pudo generar voz sintética que imitaba el timbre original de la paciente, utilizando grabaciones previas a su lesión, indica EFE.

Resultados prometedores

El dispositivo no solo descodifica palabras conocidas, sino que también es capaz de producir sonidos que no estaban en el conjunto de entrenamiento inicial. Para verificarlo, los científicos probaron el sistema con el alfabeto fonético de la OTAN (“alpha”, “bravo”, etc.), confirmando que el modelo realmente estaba aprendiendo los elementos fundamentales del habla, en lugar de simplemente repetir patrones.

“Interceptamos las señales que transforman el pensamiento en articulación. Así que no estamos leyendo la mente, sino capturando la actividad motora que genera el habla”, detalla Cheol Jun Cho, coautor del estudio.

Hacia el futuro: comunicación sin límites

En estudios anteriores, la latencia para descodificar el habla podía alcanzar hasta 8 segundos por frase. Sin embargo, este nuevo enfoque genera audio casi en tiempo real, eliminando la demora y haciendo la comunicación mucho más ágil.

Chang destaca el potencial transformador de esta tecnología:

“Con la aceleración de las interfaces cerebro-máquina impulsadas por IA, estamos más cerca de ofrecer soluciones reales a personas con discapacidades del habla severas”.

Este avance no solo mejora la comunicación, sino que también representa un paso significativo hacia la restauración de la voz para quienes la han perdido.

Sigue nuestro canal de WhatsApp

Recibe las noticias más importantes del día. Da click aquí

Temas relacionados