Por primera vez, una mujer paralizada por un derrame cerebral vuelve a hablar como un avatar
Una mujer paralizada volvió a hablar después de que la inteligencia artificial (IA) interceptara sus señales cerebrales y las convirtiera en un avatar con expresiones faciales. Ann, de 48 años, sufrió a los 30 un derrame cerebral que la dejó completamente paralizada, y para lograr la nueva hazaña, los científicos le implantaron en la superficie del cerebro un rectángulo fino como el papel con 253 electrodos que cubren la zona crítica para el habla.
Los electrodos interceptan señales cerebrales “hablantes” que se introducen en un banco de computadoras a través de un cable conectado a un puerto fijado a su cabeza. Los ordenadores decodifican las señales en texto a un ritmo de 80 palabras por minuto. Para que su voz sea realista, se utiliza una grabación de audio de ella en su boda antes del accidente cerebro vascular para reproducir su habla, que luego se coloca en un avatar que incluye expresiones faciales de felicidad, tristeza y sorpresa. El equipo de la Universidad de California en San Francisco, detrás del adelanto, afirma que es la primera vez que se sintetizan el habla y las expresiones faciales a partir de señales cerebrales. Junto con colegas de la Universidad de California Berkeley, utilizaron IA para producir la interfaz cerebro-ordenador (BCI).
El Dr. Edward Chang, catedrático de cirugía neurológica de la UCSF, que ha trabajado en esta tecnología durante más de una década, espera que este avance dé lugar en un futuro próximo a un sistema que permita hablar a partir de señales cerebrales. “Nuestro objetivo es restablecer una forma de comunicación plena y corporal, que es realmente la forma más natural de hablar con los demás”, afirma. “Estos avances nos acercan mucho más a una solución real para los pacientes”.
De no haber sido interceptadas por los electrodos, las señales de su cerebro habrían llegado a los músculos de la lengua, la mandíbula y la laringe, además de a la cara. Durante semanas, Ann, quien decidió no quiere revelar su apellido, trabajó con el equipo para entrenar los algoritmos de inteligencia artificial del sistema a reconocer sus señales cerebrales únicas para el habla. Para ello, repitió en silencio distintas frases de un vocabulario conversacional de 1.024 palabras hasta que el ordenador reconoció los patrones de actividad cerebral asociados a los sonidos. En lugar de entrenar a la IA para que reconociera palabras enteras, los investigadores crearon un sistema que decodifica palabras a partir de fonemas. Con este método, el ordenador solo necesitaba aprender 39 fonemas para descifrar cualquier palabra en inglés. Esto mejoró la precisión del sistema y lo hizo tres veces más rápido.
El equipo trabaja ahora en una versión inalámbrica que evitará que el usuario tenga que estar conectado a los ordenadores. El estudio actual, publicado en la revista Nature, se suma a una investigación anterior del equipo del Dr. Chang en la que decodificaron las señales cerebrales en texto en un hombre que también había sufrido un derrame cerebral en el tronco encefálico muchos años antes. Pero ahora pueden descodificar las señales en la riqueza del habla, junto con los movimientos que animan el rostro de una persona durante una conversación.
Despues de leer, ¿qué te pareció?
-
Me gustó
-
Me prendió
-
1Lo amé
-
Me deprime
-
WTF!
-
Me confunde