El regulador del Reino Unido mantiene a X bajo presión

El Reino Unido no va a dejar pasar esto. Aunque otras investigaciones se desvanecen silenciosamente en el limbo burocrático, ésta continúa.

Un organismo de control de medios británico dijo el jueves que seguiría adelante con una investigación de X sobre la difusión de imágenes deepfake generadas por IA, a pesar de la insistencia de la plataforma en que está tomando medidas enérgicas contra el contenido dañino.

En el centro de la disputa están las imágenes deepfake, a menudo sexualizadas; a menudo falsificados – que han proliferado en X. El temor del regulador está lejos de ser hipotético.

Con estas imágenes, una reputación podría arruinarse en minutos y, una vez que están disponibles, tratar de evitar que se hagan públicas es una tarea casi imposible.

Las autoridades dicen que necesitan saber si los sistemas de X realmente están evitando este material o simplemente reaccionan una vez que el daño ya está hecho.

Y esa es una buena pregunta, ¿no? Hemos escuchado las promesas antes. Este temor mayor de que la IA se convierta en un generador de imágenes de monstruos autopropulsado ha llevado a investigaciones similares, como el escrutinio por parte de Alemania del chatbot Grok de Musk y Japón acaba de iniciar una investigación sobre él por el mismo tipo de peligros en la creación de imágenes.

Lo fascinante –tal vez incluso un poco irónico– es que el propietario de X, Elon Musk, ha considerado durante mucho tiempo a la plataforma como una defensora de la libertad de expresión.

Pero los reguladores no están discutiendo la libertad de expresión como una abstracción; tienen que lidiar con el daño.

Cuando la IA genera pornografía falsa de personas reales, que resultan ser mujeres, esto ya no es un debate filosófico, es una cuestión de seguridad pública.

Mientras tanto, otros países además del Reino Unido ya están tomando decisiones basadas en esa lógica.

Malasia, por ejemplo, cortó recientemente por completo el acceso a Grok después de que aparecieran imágenes explícitas generadas por IA, un hecho que provocó un escalofrío en la comunidad tecnológica.

La investigación del Reino Unido también llega en un momento en que los reguladores, en general, están ejerciendo más fuerza en torno a la gobernanza de la IA.

Europa va en la dirección opuesta con una amplia legislación destinada a exigir que las plataformas rindan cuentas sobre cómo se utilizan y gobiernan los sistemas de IA.

El camino a seguir parece bastante sencillo cuando se ve cómo las históricas normas de la UE sobre IA se están presentando como modelo para ser utilizado en el resto del mundo.

Aquí está mi mejor opinión, por si sirve de algo. Esta investigación no trata principalmente de X de forma aislada. Se trata de si las empresas de tecnología pueden seguir exigiendo confianza y al mismo tiempo ofrecer herramientas que pueden ser mal utilizadas a gran escala.

El regulador del Reino Unido parece estar diciendo, cortés pero firmemente: “Muéstrenos que funciona, o seguiremos buscando”.

Y, sinceramente, parece que ya era hora de hacerlo. Los deepfakes ya no son sólo una amenaza futura. Están aquí, son un desastre y los reguladores finalmente están empezando a actuar en consecuencia.