La UE ahora ha señalado a X, y esta vez no es un argumento político, basado en desinformación o algún nebuloso argumento sobre la libertad de expresión.
Tiene que ver con la pornografía: específicamente, está la cuestión de las imágenes sexualmente explícitas que se pueden crear usando Grok, la IA asociada con la plataforma de Elon Musk, y si algunas de ellas se estaban usando para crear contenido de “desnudo digital”.
Este es el tipo de cosas que te hacen sentir un nudo en el estómago cuando las lees, porque no se trata sólo de un daño abstracto. Es dirigido, personal y en algunos casos puede ser ilegal.
Y también sobre el estado de ánimo. Esta no es una UE melodramática. Es la UE que dice: “Ya basta”.
Los reguladores están preocupados por la rapidez con la que este tipo de contenido se propaga en Internet y también por el hecho de que una vez que algo como una imagen explícita deepfake esté disponible, no desaparecerá.
El daño está hecho, aunque la plataforma lo corte, aunque la cuenta llegue a su fin.
Ahora aquí está el truco. La gente sigue pareciendo sorprendida cuando la IA se utiliza para las peores cosas. Pero, seamos realistas, ¿estamos realmente sorprendidos?
Liberas una deliciosa herramienta de imágenes sobre millones de personas e Internet hace lo que siempre hace: arroja su nuevo y brillante juguete a un triturador de basura y busca formas de lastimar a alguien con él.
Es por eso que esta investigación no es simplemente “la UE enojada con el chatbot”. Está ocurriendo con la Ley de Servicios Digitales, que esencialmente ordena a las grandes plataformas que se comporten como adultos responsables.
Siempre debería ser posible saber si X adoptó un enfoque razonable para la evaluación de riesgos y colocó suficientes barreras de seguridad. No después del daño. Antes.
Aparentemente, X ha tomado algunas medidas en respuesta, como prestar más atención a ciertas características y reforzar el control (por ejemplo, poniendo algunas funciones que generan imágenes detrás de un muro de pago).
Eso es… algo, supongo. Pero si eres tú cuya imagen fue alterada y circulada, probablemente no te sientas como una victoria. Es como si cerraras la puerta de entrada sólo después de que te hubieran robado la casa.
Y aquí hay otro hecho incómodo: las plataformas actuales no se limitan a “alojar contenido”. Lo amplifican. Lo recomiendan. Lo empujan hacia los feeds.
Es por eso que a la UE no sólo le preocupan las imágenes explícitas expuestas por Grok: le interesa saber si los sistemas X hicieron que ese contenido viajara más rápido y más lejos de lo que debería.
Lo aterrador es que esto está a punto de convertirse en la nueva normalidad.
Las imágenes generadas por IA no van a ninguna parte. De hecho, cada vez es mejor, más rápido, más barato y más real.
Es decir, los “usos brutos” también se van a multiplicar. Hoy es Grok. Mañana será otro modelo, otra plataforma, otra cosecha de víctimas.
Y ya no se trata sólo de celebridades; son compañeros de clase, colegas, ex amantes y mujeres al azar en Internet que publicaron una selfie en 2011 y todavía lamentan el día en que existieron en línea.
Por eso es importante la investigación de la UE. Y no porque sea divertido ver a las grandes tecnológicas sudar (aunque, bueno, esa parte es sostenible).
Sin embargo, es importante porque esta es una de las primeras pruebas de alto perfil sobre si los gobiernos pueden realmente obligar a las plataformas a tratar los daños causados por la IA como una emergencia real y no solo como una misión secundaria.
¿Y si X no pasa esta prueba? Y anticipemos que los reguladores serán más agresivos en todos los ámbitos, porque la próxima plataforma en su punto de mira puede no tener tantas posibilidades.