La prohibición de Illinois de terapeutas de inteligencia artificial como Ash y su amigo es errónea

La inteligencia artificial está evolucionando rápidamente. Grandes modelos de lenguaje como ChatGPT y Gemini pueden escribir artículos y codificar, crear arte peculiar e intentar realizar investigaciones profundas y resolver problemas complejos. Ahora, la IA se aventura en un papel más personal: el de terapeuta.

Con la soledad en aumento y muchos estadounidenses luchando con su salud mental, empresarios como Neil Parikh, cofundador del programa de terapia de IA Ash, sostienen que la IA puede ayudar cuando la terapia tradicional es inaccesible.

“Oye, Ash, nuestra conversación anterior fue muy útil. El pensamiento sigue ahí, pero ya no me molesta tanto como antes”, dice Parikh en su teléfono en un video que demuestra el conocimiento terapéutico de la herramienta.

“Me alegra saberlo”, responde una tranquilizadora voz femenina. “Ese es el poder de la difusión cognitiva. El pensamiento no desaparece, pero te alejas un poco de él. No eres tus pensamientos, eres el observador de ellos”.

Una nueva startup llamada Friend lanzó recientemente sus compañeros de IA portátiles de $129, actualmente solo disponibles en iPhone. El dispositivo se asemeja a un AirTag en un collar y monitorea los pensamientos y sentimientos de los usuarios escuchando las conversaciones y el entorno a través de su micrófono, luego envía mensajes de texto con respuestas como un amigo del mundo real.

Fuera del mundo de la tecnología, muchas personas están alarmadas por la cantidad de usuarios que acuden a modelos de IA en busca de consejos de vida. “Para la IA, el paciente que escribe en el cuadro siempre es razonable, siempre hace lo mejor que puede y siempre merece una estrella dorada”, escribió el autor Derek Thompson en un boletín de agosto sobre terapeutas de IA. “Por el contrario, un buen terapeuta sabe que sus pacientes a veces son irracionales, que en ocasiones no hacen nada que esté cerca de lo mejor que pueden e incluso merecen un golpe en la cabeza”.

La sugerencia de que los modelos de IA podrían tener una función terapéutica para algunos usuarios ha provocado una reacción legal. En agosto, el gobernador demócrata de Illinois, JB Pritzker, firmó una ley que prohíbe el uso de modelos de IA en la “toma de decisiones terapéuticas”. Si bien la ley fue aparentemente diseñada para proteger a los pacientes de un tratamiento deficiente a manos de modelos inhumanos de IA, Pritzker señaló que proteger a los terapeutas de la competencia también era un factor: “Esto protegerá a los pacientes de productos de IA no regulados y no calificados, al mismo tiempo que protegerá los empleos de miles de proveedores calificados de salud conductual de Illinois”, se lee en su comunicado de prensa en el que anuncia la ley.

No está claro cómo la nueva ley protegerá realmente a las personas vulnerables que luchan con problemas de salud mental no tratados. Si bien hay motivos para ser escépticos sobre la probabilidad de que las intervenciones de salud mental con IA funcionen, no hay evidencia clara que indique que sean lo suficientemente peligrosas como para merecer prohibiciones estatales.

“Si bien varios funcionarios en Illinois han exclamado cómo la nueva restricción estatal contra las herramientas de terapia de IA protegerá la seguridad pública, ninguno mencionó cuántas personas actualmente no reciben tratamiento debido a la escasez y el costo”, dice Greg Beato, coautor de Superagency: What Could Possively Go Right with Our AI Future. “Esta regulación protege claramente al establecimiento de salud mental. Pero si sirve a personas atrapadas en largas listas de espera o a aquellos que ni siquiera se molestan en buscar tratamiento debido a problemas de acceso y asequibilidad es otra cuestión completamente distinta”.

Es posible ser escéptico sobre la supuesta eficacia de la terapia con IA y también ante las amplias regulaciones estatales. Los estadounidenses pasan cada vez menos tiempo en contacto físico entre sí; Parece imprudente que la solución pueda ser pasar más tiempo en el mundo digital. Sin embargo, ni siquiera la terapia tradicional es siempre un bien puro. Un estudio australiano que dividió a los adolescentes en dos grupos (inscribiéndolos en un grupo de terapia o en una clase de salud típica) encontró que los participantes que recibieron terapia finalmente informaron una peor salud mental que los que no la recibieron.

Incluso si un programa de IA está diseñado para dar buenos consejos y alejar a los usuarios de las distorsiones cognitivas y el pensamiento narcisista, todavía le falta algo que tiene un verdadero terapeuta: un toque humano. Cuando nos sentimos solos y molestos, queremos buenos consejos, claro, pero también queremos a alguien que realmente pueda escucharnos, algo que una IA no puede hacer. Todavía.

Este artículo apareció originalmente impreso bajo el título “El terapeuta de IA te verá ahora”.