La IA de lectura mental puede convertir incluso el discurso imaginado en palabras habladas

Alguien con parálisis utilizando la interfaz cerebro-computadora. El texto de arriba es la oración con señal y el texto a continuación es lo que se está decodificando en tiempo real mientras se imagina hablar la oración

Equipo de Braingate de Emory

Las personas con parálisis ahora pueden convertirse en sus pensamientos en el habla simplemente imaginando hablar en sus cabezas.

Mientras que las interfaces de la computadora cerebral ya pueden decodifique la actividad neuronal de las personas con parálisis Cuando intentan hablar físicamente, esto puede requerir una buena cantidad de esfuerzo. Entonces Benyamin meschede-krasa en la Universidad de Stanford y sus colegas buscaron un enfoque menos intensivo en energía.

“Queríamos ver si había patrones similares cuando alguien simplemente estaba imaginando hablar en su cabeza”, dice. “Y descubrimos que esta podría ser una alternativa y, de hecho, una forma más cómoda para que las personas con parálisis usen ese tipo de sistema para restaurar su comunicación”.

Meschede-Krasa y sus colegas reclutaron a cuatro personas con parálisis severa como resultado de la esclerosis lateral (ALS) amiotrófica o el accidente cerebrovascular del tronco encefálico. Todos los participantes habían tenido microelectrodos implantados en su corteza motora, que está involucrada en el habla, con fines de investigación.

Los investigadores pidieron a cada persona que intentara decir una lista de palabras y oraciones, y también que se imaginen decirlas. Descubrieron que cerebro La actividad fue similar tanto para el discurso intentado como para el discurso imaginado, pero las señales de activación fueron generalmente más débiles para este último.

El equipo entrenó un AI modelo para reconocer esas señales y decodificarlas, utilizando una base de datos de vocabulario de hasta 125,000 palabras. Para garantizar la privacidad del discurso interno de las personas, el equipo programó que la IA se desbloquee solo cuando pensaron en la contraseña Chitty Chitty Bang Bangque detectó con una precisión del 98 por ciento.

A través de una serie de experimentos, el equipo descubrió que simplemente imaginar una palabra dio como resultado que el modelo lo decodifique correctamente hasta el 74 por ciento del tiempo.

Esto demuestra una sólida prueba de principio para este enfoque, pero es menos robusto que las interfaces que decodifican el intento del habla, dice el miembro del equipo. Frank Willetttambién en Stanford. Las mejoras continuas tanto en los sensores como en la IA en los próximos años podrían hacerlo más preciso, dice.

Los participantes expresaron una preferencia significativa por este sistema, que era más rápido y menos laborioso que los basados en el intento de habla, dice Meschede-Krasa.

El concepto toma “una dirección interesante” para las futuras interfaces del cerebro-computadora, dice Mariska Vansteensel en UMC Utrecht en los Países Bajos. Pero carece de diferenciación entre el intento de habla, lo que queremos ser el discurso y los pensamientos que queremos mantenernos a nosotros mismos, dice ella. “No estoy seguro de si todos pudieron distinguir tan precisamente entre estos diferentes conceptos de discursos imaginados e intentados”.

También dice que la contraseña necesitaría encenderse y apagarse, en línea con la decisión del usuario de decir lo que están pensando a mitad de la conversación. “Realmente necesitamos asegurarnos de que BCI [brain computer interface]-Las expresiones basadas en las personas tienen la intención de compartir con el mundo y no las que quieren mantenerse para sí mismas sin importar qué “, dice ella.

Benjamin Alderson-Day en la Universidad de Durham en el Reino Unido dice que no hay razón para considerar este sistema un mente-lector. “Realmente solo funciona con ejemplos muy simples de lenguaje”, dice. “Quiero decir, si sus pensamientos se limitan a palabras individuales como ‘árbol’ o ‘pájaro’, entonces podría estar preocupado, pero todavía estamos muy lejos de capturar los pensamientos de forma libre de las personas y las ideas más íntimas”.

Willett subraya que todas las interfaces de computadora cerebral están reguladas por agencias federales para garantizar la adherencia a “los más altos estándares de ética médica”.

Temas: