Meta AI, la división de inteligencia artificial (IA) de Meta, anunció el 31 de agosto que había encontraron una forma de decodificar la actividad cerebral relacionada con el habla sin utilizar tecnologías invasivas. Este descubrimiento podría facilitar la vida de las personas con problemas de comunicación. El objetivo de Meta es para descifrar el discurso que se forma en el cerebro para desarrollar una interfaz cerebro-ordenador (BCI), o interfaz cerebro-máquina en francés.
La búsqueda de la comprensión de la actividad cerebral
Los investigadores llevan años trabajando en la descodificación de la actividad cerebral asociada al habla. Sin embargo, la gran mayoría de los avances se han realizado con la ayuda de tecnologías intrusivas como la electroencefalografía intracraneal y la electrocorticografía. Ambos métodos requieren una intervención quirúrgica para implante de electrodos o incluso de chips al igual que Neuralink, la empresa de neurotecnología cofundada por Elon Musk.
Los miembros de la división Meta AI han tenido un proceso menos invasivo mediante electroencefalografía (EEG) y magnetoencefalografía (MEG). Ambas tecnologías son notoriamente inexactas. La empresa californiana explica que son » notoriamente ruidoso y [leurs résultats] puede variar considerablemente de una sesión de grabación a otra y de un individuo a otro por diversas razones, como las diferencias en el cerebro de cada persona y la ubicación de los sensores «.
Para superar la inexactitud de las grabaciones, los investigadores de Meta realizaron dos redes neuronales en paralelo. El «modelo del habla», que analiza las palabras escuchadas, y el «modelo del cerebro», que analiza la actividad cerebral. Estas dos redes fueron alimentadas por 150 horas de grabaciones de EEG y MEG de 169 participantes que escucharon audiolibros y aislaron frases en inglés y alemán.

Para decodificar el habla a partir de señales cerebrales no invasivas, el modelo de Meta aprende comparando las dos redes neuronales y localiza cuando las palabras escuchadas se alinean con la actividad cerebral. GIF: Meta.
El equipo de la división de IA de Meta estaba muy satisfecho con los resultados obtenidos. » Utilizando tres segundos de actividad cerebral, nuestros resultados muestran que nuestro modelo puede decodificar segmentos del habla con una precisión máxima del 73% a partir de un vocabulario de 793 palabras, es decir, una gran proporción de las palabras que solemos utilizar en la vida cotidiana «, decía el comunicado.
Meta ya tiene experiencia en este tipo de investigación
No es la primera vez que Meta trata de entender lo que ocurre en el cerebro humano. En febrero de 2020, los equipos de Reality Labs, el departamento especializado en el desarrollo de tecnologías de realidad virtual y aumentada, ya trabajaban en la detección de signos mentales en el origen del discurso. Su objetivo era diseñar una interfaz cerebro-máquina que permitiera escribir con el pensamiento a un ritmo de 100 palabras por minuto.
Sin embargo, este tipo de proyectos ha planteado muchas cuestiones éticasespecialmente sobre el uso que Meta podría hacer de los pensamientos a los que tiene acceso. Por ello, el gigante de las redes sociales decidió, en julio de 2021, a abandonar su trabajo en las tecnologías de lectura de la mente. En su lugar, el grupo se centra en el desarrollo de una pulsera conectada que pueda detectar señales motoras y transformarlas en una acción.

El prototipo de pulsera desarrollado por Meta, equipado con sensores electromiográficos para «interpretar» los movimientos del usuario. Fotografía: Meta.
En cuanto a su última investigación, los investigadores de Meta AI aseguran que no están relacionados con el trabajo anterior de la empresa y que no se utilizará para futuros productos Meta.
Como joven medio de comunicación independiente, OnDigital Magazine necesita tu ayuda. Apóyenos siguiéndonos y marcándonos como favoritos en Google News. Gracias por su apoyo.