California obliga a los chatbots a soltar la sopa

California ha dicho oficialmente a los chatbots que sean sinceros.

A partir de 2026, cualquier IA conversacional que pueda confundirse con una persona deberá revelar claramente que no es humana, gracias a una nueva ley firmada esta semana por el gobernador Gavin Newsom.

La medida, el Proyecto de Ley del Senado 243, es la primera de su tipo en Estados Unidos, una medida que algunos consideran un hito para la transparencia de la IA.

La ley parece bastante simple: si tu chatbot puede engañar a alguien haciéndole creer que es una persona real, tiene que confesarlo. Pero los detalles son profundos.

También introduce nuevos requisitos de seguridad para los niños, exigiendo que los sistemas de inteligencia artificial les recuerden cada pocas horas que están chateando con una entidad artificial.

Además, las empresas deberán informar cada año a la Oficina de Prevención del Suicidio del estado sobre cómo responden sus robots a las revelaciones de autolesiones.

Es un giro brusco con respecto al panorama de IA de hace apenas un año, donde todo vale, y refleja una creciente ansiedad global sobre la influencia emocional de la IA en los usuarios.

Pensarías que esto era inevitable, ¿verdad? Después de todo, hemos llegado a un punto en el que las personas están entablando relaciones con chatbots, a veces incluso románticas.

La diferencia entre “asistente empático” e “ilusión engañosa” se ha vuelto muy fina.

Es por eso que la nueva regla también prohíbe que los robots se hagan pasar por médicos o terapeutas: no más momentos de IA Dr. Phil.

La oficina del gobernador, al firmar el proyecto de ley, enfatizó que esto era parte de un esfuerzo más amplio para proteger a los californianos de comportamientos manipuladores o engañosos de la IA, una postura descrita en la iniciativa de seguridad digital más amplia del estado.

Hay otra capa aquí que me fascina: la idea de “verdad en interacción”. Un chatbot que admite “soy una IA” puede parecer trivial, pero cambia la dinámica psicológica.

De repente, la ilusión se resquebraja… y tal vez ese sea el punto. Se hace eco de la tendencia más amplia de California hacia la rendición de cuentas.

A principios de este mes, los legisladores también aprobaron una norma que exige que las empresas etiqueten claramente el contenido generado por IA, una ampliación del proyecto de ley de transparencia destinada a frenar las falsificaciones profundas y la desinformación.

Aún así, hay tensión gestándose bajo la superficie. Los líderes tecnológicos temen un mosaico regulatorio: diferentes estados, diferentes reglas, todos exigiendo diferentes divulgaciones.

Es fácil imaginar a los desarrolladores alternando los “modos de divulgación de IA” según la ubicación.

Los expertos legales ya están especulando que la aplicación de la ley podría volverse turbia, ya que la ley depende de si una “persona razonable” puede ser engañada.

¿Y quién define “razonable” cuando la IA está reescribiendo las normas de la conversación entre humanos y máquinas?

El autor de la ley, el senador Steve Padilla, insiste en que se trata de trazar límites, no de sofocar la innovación. Y para ser justos, California no está sola.

La Ley de IA de Europa ha impulsado durante mucho tiempo una transparencia similar, mientras que el nuevo marco de la India para el etiquetado de contenidos de IA da a entender que se está generando un impulso global.

La diferencia es el tono: el enfoque de California parece personal, como si protegiera las relaciones, no sólo los datos.

Pero he aquí algo a lo que sigo volviendo: esta ley es tanto filosófica como técnica. Se trata de honestidad en un mundo donde las máquinas se están volviendo demasiado buenas fingiendo.

Y tal vez, en una era de correos electrónicos perfectamente escritos, selfies impecables y compañeros de inteligencia artificial que nunca se cansan, en realidad necesitamos una ley que nos recuerde qué es real y qué está realmente bien codificado.

Así que sí, la nueva norma de California puede parecer pequeña a primera vista.

Pero si miras más de cerca, verás el comienzo de un contrato social entre humanos y máquinas. Uno que diga: “Si vas a hablar conmigo, al menos dime quién o qué eres”.