La investigación de la IA de lanzamiento de los federales después de un chatbot fue culpado por el suicidio de un adolescente

Los reguladores federales y los funcionarios electos se están moviendo para tomar medidas enérgicas contra los chatbots de IA sobre los riesgos percibidos para la seguridad de los niños. Sin embargo, las medidas propuestas podrían poner en riesgo a más niños.

El jueves, la Comisión Federal de Comercio (FTC) envió órdenes al alfabeto (Google), las tecnologías de los personajes (culpadas por el suicidio de un niño de 14 años en 2024), Instagram, Meta, OpenAi (culpado por El suicidio de un joven de 16 años en abril), Snap y Xai. La consulta busca información sobre, entre otras cosas, cómo las compañías de IA procesan las entradas de los usuarios y generan resultados, desarrollan y aprueban los caracteres con los que los usuarios pueden interactuar y monitorear los efectos posibles y negativos reales de sus chatbots, especialmente con respecto a los menores.

La investigación de la FTC fue recibida con aplausos bipartidistas del representante Brett Guthrie (R – Ky.) – El presidente del Comité de Energía y Comercio de la Cámara de Representantes, y Frank Pallone (D – NJ). Los dos congresistas emitieron un declaración conjunta “Apoyo fuertemente[ing] esta acción por la FTC y URG[ing] La agencia considerará las herramientas a su disposición para proteger a los niños de los daños en línea “.

Alex Ambrose, analista de políticas de la Fundación de Tecnología e Innovación de la Información. Razón Que le resulte interesante que la investigación de la FTC esté únicamente interesada en “impactos potencialmente negativos”, sin prestar atención a los impactos potencialmente positivos de los chatbots en la salud mental. “Si bien los expertos deben considerar formas de reducir el daño de los compañeros de IA, es igual de importante fomentar los usos beneficiosos de la tecnología para maximizar su impacto positivo”, dice Ambrose.

Mientras tanto, el senador Jon Husted (R – Ohio) introducido el Acto de chat El lunes, lo que permitiría que la FTC haga cumplir las medidas de verificación de edad para el uso de chatbots de IA complementarios. Los padres tendrían que consentir antes de que los usuarios menores de edad pudieran crear cuentas, que se bloquearían para acceder a “cualquier chatbot de IA complementario que se involucre en una comunicación sexualmente explícita”. Los padres serían informados de inmediato sobre la ideación suicida expresada por su hijo, cuya cuenta de menores sería monitoreada activamente por la compañía Chatbot.

Taylor Barkley, Director de Políticas Públicas en el Instituto de Abundancia, argumentar Que este proyecto de ley no mejore la seguridad infantil. Barkley explica que el proyecto de ley “comunicación terapéutica de los bultos” en bots acompañantes “, que podría evitar que los adolescentes se beneficien de las herramientas de terapia de IA. Bustar el acceso de los menores a chatbots terapéuticos y complementarios podría tener consecuencias no deseadas.

En un estudio de mujeres que fueron diagnosticadas con un trastorno de ansiedad y viviendo en regiones de conflictos militares activos en Ucrania, el uso diario del Amigo chatbot se asoció con “una caída del 30% en la escala de ansiedad de Hamilton y una reducción del 35% en el inventario de depresión de Beck”, mientras que la psicoterapia tradicional, tres sesiones de 60 minutos por semana, se asoció con “reducciones de 45% y 50% en estas medidas, respectivamente”, según un estudio. publicado este febrero en Psicología BMC. Del mismo modo, un junio estudiar en el Revista de investigación del consumidor Descubrieron que “los compañeros de IA alivian con éxito la soledad a la par solo con interactuar con otra persona”.

Proteger a los niños de las interacciones dañinas con los chatbots es un objetivo importante. En su búsqueda por lograrlo, los formuladores de políticas y los reguladores serían prudentes para recordar los beneficios que la IA puede traer y no buscar soluciones que desanuen a las compañías de IA de que la tecnología potencialmente útil esté disponible para los niños en primer lugar.