Edward Chang no tardó mucho en darse cuenta de las implicaciones de lo que estaba haciendo. El neurocientífico y neurocirujano de la Universidad de California en San Francisco estaba estudiando la actividad cerebral detrás del habla, esa coreografía neuronal precisa y delicada mediante la cual los labios, la mandíbula, la lengua y la laringe producen sonidos significativos.
Al implantar una serie de electrodos entre las membranas externa e interna del cerebro, directamente sobre el área del cerebro que controla el habla, él y su equipo pudieron detectar distintos patrones de actividad cerebral asociados con sonidos específicos, cada vocal y consonante. cada sonido duh, guh, ee y ay que se combinan para formar palabras.
“Nos dimos cuenta de que teníamos un código para cada sonido del habla en inglés”, dice Chang. Y esa comprensión abrió algunas posibilidades asombrosas.
En una serie de artículos publicados entre 2019 y 2021, Chang y su equipo demostraron cómo podrían utilizar el aprendizaje automático, una forma de inteligencia artificial, para analizar los patrones. Inmediatamente vieron los beneficios potenciales para las personas que han perdido la capacidad de hablar debido a un derrame cerebral, parálisis cerebral, ELA u otras formas de parálisis: una vez que las palabras y oraciones de las personas se reconstruyen mediante el análisis de esos patrones cerebrales, las palabras se puede mostrar como texto en una pantalla. Más recientemente, los investigadores demostraron que las palabras que una persona intenta decir pueden incluso traducirse en una voz generada por computadora y en movimientos faciales en un avatar en pantalla, lo que permite a una persona paralizada comunicarse no sólo con el habla, sino también con expresiones faciales. también.
Mientras tanto, investigadores de la Universidad de Texas en Austin están trabajando en un método menos invasivo para escudriñar la mente. Un equipo dirigido por Alexander Huth, un neurocientífico computacional, utiliza imágenes de resonancia magnética funcional (fMRI), en lugar de implantes, para monitorear la actividad cerebral. Luego, al igual que el grupo de Chang, utilizan un sistema de aprendizaje automático llamado “decodificador semántico” para relacionar cada palabra o frase con un patrón particular de activación cerebral.
“Básicamente, construimos un modelo del cerebro de una persona. Y luego, cuando obtengamos nuevas grabaciones cerebrales de esa persona, podremos usar el modelo para generar una secuencia de palabras que prediga lo que el usuario está escuchando o imaginando”, explica Jerry Tang, neurocientífico del laboratorio de Huth y autor principal de muchos de los estudios sobre esta tecnología. “No es como otros estudios que analizan las palabras que intentan decir. En realidad, son sus pensamientos, lo que están imaginando”.
Un artículo de Tang y sus colegas publicado en Nature Neuroscience en mayo de 2023 dio un ejemplo. Cuando un participante escuchó las palabras, “No sabía si gritar, llorar o salir corriendo. En cambio, dije: ‘¡Déjame en paz!’”, la IA decodificó el pensamiento como: “Comenzó a gritar y llorar, y luego simplemente dijo: ‘Te dije que me dejaras en paz. No puedes lastimarme’”.
“No es perfecto, pero es sorprendentemente bueno para usar fMRI”, dijo Huth en una reunión de febrero de 2024 del Grupo de Trabajo de Neuroética de los Institutos Nacionales de Salud, donde habló sobre su trabajo y el de su equipo.
Impactante es la palabra correcta. Huth le dijo a la revista Science que al ver que esto realmente funcionaba, su primer pensamiento fue: “Dios mío, esto es algo aterrador”.
Aterradora o no, toda esta investigación hasta la fecha no ha cruzado el umbral de la lectura de la mente, al menos no todavía. Los investigadores tienen cuidado de señalar que este método estaba destinado a funcionar únicamente con participantes cooperativos. Los voluntarios en los estudios de Tang pasaron 16 horas con sus cerebros escaneados mientras escuchaban historias de los podcasts Moth Radio Hour y Modern Love. Esto proporcionó a los investigadores una gran cantidad de datos sobre la actividad del cerebro de los voluntarios mientras escuchaban palabras habladas. Luego, la IA recurrió a esta rica base de datos para buscar patrones que pudiera relacionar con palabras y oraciones específicas. Pero los datos que utilizaban este método no parecían ser transferibles. En otras palabras, la IA no pudo decodificar los pensamientos de otra persona basándose en los datos de entrenamiento del cerebro de un participante.
No obstante, los investigadores son conscientes de las implicaciones. “Pensamos profundamente en lo que esto podría significar”, dice Tang. En última instancia, establecieron que las personas podían controlar conscientemente cuáles de sus pensamientos se decodificaban. Por ejemplo, Tang explica que si alguien escucha dos historias diferentes al mismo tiempo, puede controlar cuál de las historias se decodifica. “Tomamos esto para sugerir que sólo se puede decodificar lo que [a person] está pensando activamente”.
Aún así, lo que preocupa a algunas personas no es lo que la tecnología puede hacer ahora, sino lo que algún día podrá hacer.
Tang reconoce que esta tecnología está en su infancia y es posible que pueda llegar al punto en que pueda usarse para leer los pensamientos de una persona en contra de su voluntad. “Hay mucha más información en estos escáneres cerebrales de lo que pensábamos anteriormente”, dice Tang. “Y no sabemos cuál es el límite máximo para eso. Por lo tanto, definitivamente no queremos darle a nadie una falsa sensación de seguridad”.
Y, de hecho, los avances en la tecnología están llegando rápidamente, más rápido de lo que esperaban incluso sus desarrolladores. En su presentación ante el Grupo de Trabajo de Neuroética, Huth compartió algunos resultados aún inéditos (y sorprendentes) que indican que, después de todo, los datos del cerebro pueden ser transferibles. Los estudios del equipo han demostrado que, de hecho, pueden decodificar los pensamientos de una segunda persona utilizando el conjunto de datos más grande de la primera persona, aunque la técnica requiere al menos una pequeña cantidad de datos de entrenamiento de la segunda persona. “Es sorprendente lo que podemos hacer casi sin datos de entrenamiento de una persona”, dijo Huth en la reunión. Si bien la precisión de este método hasta ahora es limitada, mejorará a medida que aumente la potencia informática. “Aún no hemos alcanzado los límites”, afirmó.
“Creo que la lección de la era moderna es que la IA generativa está haciendo que todo, incluida la decodificación del cerebro, vaya mucho más rápido de lo que la gente pensaba”, dice Nita Farahany, profesora de derecho y filosofía en la Universidad de Duke y autora de La batalla por tu cerebro: defender el derecho a pensar libremente en la era de la neurotecnología.
Las posibles implicaciones para la privacidad derivadas del desarrollo de cualquier forma de tecnología de “lectura del pensamiento” son fáciles de imaginar. Cuando la tecnología se limita a aplicaciones médicas, como el dispositivo de Chang que ayuda a las personas paralizadas a recuperar la capacidad de comunicarse, esas aplicaciones están cubiertas por la Ley de Responsabilidad y Portabilidad del Seguro Médico (HIPAA). HIPAA impone estrictas normas de privacidad a los proveedores de atención médica y sanciones severas por violarlas. Mientras tanto, los investigadores están sujetos a restricciones impuestas por comités independientes, llamados consejos de revisión institucional, que deben revisar y aprobar la ética de la investigación propuesta antes de que pueda seguir adelante.
Pero esta tecnología no se limita únicamente a los laboratorios de neurociencia y las aplicaciones no se limitan a la atención médica. Las empresas que proporcionan esta tecnología para su uso fuera de entornos de atención médica no están sujetas a esas mismas regulaciones de privacidad ni estándares éticos.
Los dispositivos portátiles y las aplicaciones que pueden leer y registrar datos cerebrales ya están disponibles comercialmente. A menudo denominados “neurotecnología personal”, estos productos le permiten usar dispositivos independientes o incluso su teléfono inteligente para registrar o monitorear sus propias ondas cerebrales en tiempo real para mejorar su meditación, reducir el estrés o mejorar la concentración. Y hay más en camino. Este verano, Apple obtuvo una patente para auriculares que contendrían sensores que utilizan electroencefalografía (o EEG) para medir y mostrar a los usuarios la actividad eléctrica en su cerebro.
Por supuesto, las aplicaciones y la tecnología personal van muy por detrás de los avances en los laboratorios de investigación: ninguno de los dispositivos comerciales puede predecir sus pensamientos. Pero Farahany señala que incluso hoy en día, cuando la tecnología comercial es bastante primitiva, estos dispositivos pueden revelar más sobre lo que uno piensa y siente de lo que uno podría sentirse cómodo.
Y la información que recopilan estos dispositivos no le pertenece. ¿Recuerda la letra pequeña de los acuerdos de consumo que nadie lee antes de hacer clic en “Acepto” y descargar el software? Rafael Yuste ha leído la letra pequeña, y resultó una lectura más interesante de lo que cabría esperar. Yuste es presidente y cofundador de la Fundación Neurorights, una organización dedicada a garantizar el desarrollo ético de la neurotecnología. Sin excepción, dice Yuste, todos y cada uno de los acuerdos para dispositivos y aplicaciones comerciales de neurotecnología otorgan la propiedad de todos los datos cerebrales del usuario a la empresa que los recopila.
Es más, al aceptar la mayoría de estos contratos (y sí, son contratos), el usuario permite a la empresa vender los datos a un tercero, que no está obligado a ningún acuerdo que el usuario haya hecho con el proveedor original. “En otras palabras”, afirma Yuste, “el estatus de los datos cerebrales en la tecnología comercial no podría estar menos protegido”.
Para Tang, los riesgos de esta tecnología pueden no radicar en subestimar lo que estos dispositivos pueden hacer, sino en sobreestimar sus capacidades. Señala las pruebas de polígrafo, que en general se considera inexactas porque parecen medir la ansiedad en lugar del engaño. El resultado son muchos falsos positivos que pueden conducir, y han conducido, a un error judicial. “De la misma manera, creo que es importante que no se exageren demasiado las capacidades de esta tecnología”, afirma. “Es importante ser transparentes sobre exactamente lo que podemos hacer, pero también lo que no podemos hacer, para asegurarnos de que no se haga un mal uso de la tecnología de decodificación”.
Aunque los riesgos del mal uso de esta tecnología son reales, los beneficios potenciales son enormes. Chang y Tang están utilizando sus descubrimientos para desarrollar tecnologías que puedan ayudar a restaurar la capacidad de comunicarse. Marcel Just tiene una visión aún mayor: resolver el misterio de la mente humana. Just, neurocientífico cognitivo de la Universidad Carnegie Mellon, fue pionero en el uso de la resonancia magnética funcional y el aprendizaje automático para comprender cómo el cerebro almacena y procesa conceptos y significados. Compara esta tecnología con la perspicacia proporcionada por el primer microscopio o el primer telescopio. “Es el sueño de un científico”, dice. “Ha abierto la puerta a la comprensión de la naturaleza del pensamiento humano”.
Just ve esta tecnología como una ayuda para desarrollar mejores cerebros y desarrollar formas más efectivas de enseñar y aprender, de la misma manera que los avances en fisiología del ejercicio han ayudado a desarrollar formas más seguras y efectivas de construir mejores cuerpos. “No sólo podemos formar mejores atletas, algo que hemos demostrado que podemos hacer, sino que también podemos formar mejores pensadores”, afirma Just. “Si sabes cómo el cerebro maneja todo en el mundo, podrías enseñar todo en el mundo en consecuencia. Se podrían simplificar enormemente los sistemas educativos”.
Algunos de los beneficios de la tecnología de decodificación cerebral son más prácticos. Por ejemplo, sensores portátiles que monitorean el cerebro de los conductores de camiones de larga distancia y les alertan cuando tienen demasiado sueño para conducir podrían salvar vidas, no sólo para los camioneros, sino para todos los que están en la carretera. En este caso, dice Farahany, el interés en proteger a la sociedad de un conductor privado de sueño que corre por la carretera probablemente supera las preocupaciones de los camioneros sobre la privacidad de sus niveles de fatiga.
Gabriel Lázaro-Muñoz, neurocientífico con experiencia en derecho y filosofía, trabaja en el Centro de Bioética de la Facultad de Medicina de Harvard. Dice que encontrar una solución que equilibre la necesidad de privacidad con la oportunidad de avances médicos requerirá que tanto el público como los formuladores de políticas se informen sobre los riesgos y beneficios de esta tecnología.
Yuste y la Fundación Neurorights están trabajando con gobiernos de todo el mundo para incluir protecciones de los derechos neuronales en sus constituciones. En 2021, Chile se convirtió en el primer país en consagrar en su constitución el derecho a la privacidad neuronal. En 2023, el estado brasileño de Rio Grande do Sul incorporó los derechos neuronales a su constitución, y el mismo año México añadió los derechos neuronales a su Carta de Derechos Digitales. En EE. UU., Colorado se convirtió en el primer estado en proteger los derechos neuronales cuando, en agosto de 2024, promulgó una ley que agregaba datos biológicos, incluidos datos neuronales, a las protecciones de privacidad existentes en el estado.
Farahany está de acuerdo en que se necesitan protecciones, pero los esfuerzos actuales no son suficientes. El enfoque de los neuroderechos está sobreespecificado y poco inclusivo, afirma. Al centrarse exclusivamente en la legislación y las enmiendas constitucionales para proteger los datos neuronales, no aborda el ecosistema en el que se utilizan estos datos, como los anuncios dirigidos y las tecnologías de manipulación.
“Necesitamos tener una conversación nacional sobre cómo queremos gestionar estas tecnologías”, dice Lázaro-Muñoz. Parece confiar en que se producirá una conversación. “En general, al público le gusta hablar sobre tecnologías de lectura mental.