Un gorro que lee la mente: Científicos australianos transforman pensamientos silenciosos en texto con IA


El equipo del Centro de Inteligencia Artificial de la Universidad Tecnológica de Sídney (UTS) ha logrado un avance significativo en la interacción entre mente y tecnología, al desarrollar un dispositivo portátil capaz de descifrar pensamientos silenciosos y transformarlos en texto escrito. Este hito abre nuevas y prometedoras vías de comunicación para personas que enfrentan barreras para la expresión oral.

Actualmente, el sistema alcanza una precisión aproximada del 40% en la traducción de estas ondas cerebrales. Sin embargo, los investigadores responsables del proyecto tienen ambiciones mayores, aspirando a elevar este índice hasta un notable 90% en la interpretación y reconocimiento de voz en el futuro.

"Esta investigación representa un esfuerzo pionero en la traducción de ondas de EEG (electroencefalograma) sin procesar directamente al lenguaje, lo que marca un avance significativo en el campo", afirmó Chin-Teng Lin, director del Centro GrapheneX-UTS HAI y principal responsable de esta innovadora investigación.


La tecnología detrás del "lector de mentes": DeWave y el EEG

Según detalló la Universidad de Tecnología de Sídney (UTS), el estudio se llevó a cabo con 29 participantes que leyeron pasajes de texto en silencio. Mientras leían, utilizaban una gorra especializada que registraba la actividad cerebral eléctrica a través del cuero cabelludo mediante un electroencefalograma (EEG). Este método es menos invasivo que otros enfoques, como los implantes quirúrgicos o las resonancias magnéticas funcionales, que han sido necesarios en sistemas de decodificación de lenguaje previos.

La clave del sistema reside en un modelo de Inteligencia Artificial (IA) denominado DeWave, desarrollado por los investigadores de la UTS. Este modelo avanzado segmenta las ondas de EEG en unidades distintas, capturando características y patrones específicos de la actividad cerebral humana. Posteriormente, DeWave traduce estas señales de EEG en palabras y oraciones mediante un proceso de aprendizaje basado en grandes cantidades de datos de EEG. Las neuronas, al transmitir señales eléctricas, generan los impulsos que esta IA interpreta y convierte en texto comprensible para quienes no pueden comunicarse oralmente.


También te puede interesar: Qualcomm revoluciona el diseño de chips con IA: Adiós al "ensayo y error" en la creación de hardware


Innovación en neurociencia e IA y el futuro de la comunicación

Chin-Teng Lin destacó que esta es la primera investigación en "incorporar técnicas de codificación discreta en el proceso de traducción de cerebro a texto, lo que introduce un enfoque innovador para la decodificación neuronal. La integración con grandes modelos lingüísticos también está abriendo nuevas fronteras en neurociencia e IA".

A diferencia de otras tecnologías que requieren ayudas adicionales como el seguimiento ocular para transformar las señales cerebrales en segmentos a nivel de palabra, la nueva tecnología de la UTS puede utilizarse con o sin seguimiento ocular, lo que amplía significativamente su aplicación práctica. Esto representa un avance sobre estudios anteriores, como el de 2023 que permitió a pacientes con ictus comunicarse mediante una interfaz cerebro-ordenador y un generador de voz de IA, o el implante del chip cerebral Neuralink de Elon Musk en 2024.

La robustez y adaptabilidad de esta investigación se ven reforzadas por el número de participantes (29), lo que la hace más fiable que tecnologías probadas en solo una o dos personas, dada la variabilidad de las ondas de EEG entre individuos. A pesar de que el EEG de gorro genera señales más "ruidosas" que los electrodos implantados directamente en el cerebro, el avance en la interpretación de estas señales es notable.

Yiqun Duan, uno de los profesionales a cargo del proyecto, señaló que el modelo es más hábil para relacionar verbos que sustantivos. En el caso de los sustantivos, observaron "una tendencia hacia pares sinónimos en lugar de traducciones precisas, como ‘el hombre’ en lugar de ‘el autor’". Duan atribuye esto a que "cuando el cerebro procesa estas palabras, palabras semánticamente similares, podrían producir patrones de ondas cerebrales similares". A pesar de estas dificultades, el modelo produce "resultados significativos, alineando palabras clave y formando estructuras oracionales similares".

Los investigadores de la UTS buscan que este avance logre una precisión cercana al 90%, un nivel comparable al de los programas de traducción de idiomas o de reconocimiento de voz. Actualmente, la traducción automática de EEG presenta una tasa de acierto de alrededor del 40% en la métrica BLEU-1, que evalúa la similitud entre el texto traducido por el sistema y traducciones humanas.

Este avance consolidado permite una mayor esperanza en la búsqueda de soluciones innovadoras para la interacción directa entre el cerebro y la tecnología, trazando un horizonte alentador para la integración social y la mejora de la calidad de vida de quienes más lo necesitan.



↓ Sigue más contenido ↓



 
Paperblog