Cómo la inteligencia artificial y los implantes cerebrales están devolviendo la voz a pacientes con ELA
Descubre cómo una innovadora interfaz cerebro-computadora está ayudando a pacientes con ELA a volver a comunicarse con sus seres queridos
Imagina no poder hablar con tus seres queridos durante años debido a una enfermedad que afecta tu capacidad para comunicarte. Ahora, gracias a una tecnología que combina inteligencia artificial con implantes cerebrales, esto está cambiando para personas con condiciones como la esclerosis lateral amiotrófica (ELA).
Esta nueva herramienta está devolviendo la voz a quienes la habían perdido, permitiéndoles conectarse nuevamente con su entorno. A continuación, exploraremos cómo funciona esta tecnología y los avances recientes que están transformando vidas, de acuerdo a un artículo de Live Science.
¿Qué es una interfaz cerebro-computadora?
Una interfaz cerebro-computadora (BCI, por sus siglas en inglés) es una tecnología avanzada que permite a personas con discapacidades, como la parálisis, recuperar funciones que han perdido. Estas interfaces registran señales del cerebro y las decodifican para entender lo que la persona intenta hacer, como mover una mano o hablar. La tecnología ayuda a superar nervios dañados que normalmente transmitirían estas señales para controlar los músculos.
¿Cómo funciona la BCI para el habla?
Las investigaciones recientes han avanzado en el desarrollo de BCI para restaurar la comunicación en personas que no pueden hablar. Cuando una persona intenta hablar, la BCI graba las señales cerebrales asociadas con los movimientos musculares que normalmente producirían el habla. Luego, estas señales se traducen en palabras que se pueden mostrar en una pantalla o pronunciar en voz alta mediante software de texto a voz.
El avance en la investigación con pacientes de ELA
En un estudio reciente realizado en la Universidad de California, Davis, en colaboración con el ensayo clínico BrainGate2, se demostró una BCI para el habla que logró decodificar el intento de habla de un hombre con esclerosis lateral amiotrófica (ELA). La ELA es una enfermedad neurodegenerativa que afecta las neuronas responsables del movimiento muscular, incluyendo las necesarias para el habla. Gracias a esta tecnología, el paciente pudo “hablar” con una precisión de más del 97%.
¿Cómo se graban las señales cerebrales?
Para lograr esta decodificación, se colocan dispositivos de grabación de señales cerebrales directamente en el cerebro del paciente, específicamente en la corteza motora del habla. Estos dispositivos incluyen matrices de electrodos que capturan la actividad neuronal cuando el paciente intenta hablar. En el estudio mencionado, se grabó la actividad neural de 256 electrodos mientras el paciente intentaba pronunciar palabras.
Decodificando las señales cerebrales en palabras
La BCI primero traduce las señales cerebrales en fonemas, que son las unidades básicas de sonido que forman las palabras. En inglés, hay 39 fonemas que se pueden combinar para formar cualquier palabra. Para lograr una traducción precisa, se utilizan modelos avanzados de aprendizaje automático que identifican patrones en los datos complejos de las señales cerebrales. Este enfoque permite ensamblar los fonemas en palabras, incluso aquellas para las que el sistema no fue entrenado explícitamente.
De fonemas a frases coherentes
Una vez que se tienen los fonemas decodificados, se convierten en palabras y oraciones usando modelos de lenguaje. Estos modelos ayudan a predecir la secuencia más probable de palabras, asegurando que las frases resultantes sean coherentes y tengan sentido en su contexto.
Te puede interesar: Cómo el Chip Taichi-II de China podría revolucionar la Inteligencia Artificial y cambiar el futuro de la tecnología
Sigue nuestro canal de WhatsApp
Recibe las noticias más importantes del día. Da click aquí