Gettyimages 2104753103.jpg

Kate, la princesa de Gales, liberada un video la semana pasada en la que compartió su diagnóstico de cáncer, que siguió a una cirugía abdominal mayor en enero. La declaración tenía como objetivo no solo informar al público sino también tranquilizar rumores y especulaciones Esto se había vuelto cada vez más complicado y obsesivo desde que la futura reina de Gran Bretaña desapareció de la vista del público tras una aparición formal el día de Navidad.

Sin embargo, sólo unos minutos después del lanzamiento del vídeo, las redes sociales se llenaron de afirmaciones de que el vídeo era falso generado mediante IA.

Parte de esa sospecha era comprensible, considerando que una fotografía reciente publicada por la familia real había sido manipulado utilizando herramientas de edición de fotografías. kate aceptado tanto a principios de este mes. Pero afirma que el vídeo era falso. persistió incluso después de que BBC Studios confirmara su autenticidad de la mejor manera posible, no mediante un análisis complicado de las imágenes, sino dejando claro que filmaron el video.

Durante años, cuando la gente advirtió contra la amenaza de las herramientas de inteligencia artificial que generaban audio, imágenes y videos, la mayor preocupación era que estas herramientas pudieran usarse para generar falsificaciones convincentes de figuras públicas en posiciones comprometedoras. Pero la otra cara de la moneda de esa posibilidad puede ser un problema aún mayor. La mera existencia de estas herramientas amenaza con desestructurar la realidad.

En otro revuelo reciente, “profundo“Se utilizaron herramientas para crear imágenes pornográficas del ícono de la música Taylor Swift. Estas imágenes, que parecen tener su origen en una concurso informal en el pozo negro tóxico del 4chan tablero de mensajes, se difundió tan rápidamente en el sitio de redes sociales X (anteriormente Twitter), mal moderado, que se vio obligado a cerrar búsquedas involucrando el nombre de Swift mientras buscaba una manera de lidiar con ellos. Las imágenes fueron vistas millones de veces antes de las X deliberadamente debilitado Las defensas lograron borrar muchas de las imágenes de la plataforma.

Pero lo que está sucediendo con Kate tiene un parecido aún más sorprendente con otro caso de video real que fue calificado de falso, y este es una señal aún mayor de lo que nos espera a medida que nos acercamos al día de las elecciones.

El 12 de marzo, Donald Trump publicado en Truth Social, atacando a Biden y una serie de videos.

¡El Informe Hur fue revelado hoy! Un desastre para Biden, un estándar de justicia de dos niveles. Ellos utilizaron la Inteligencia Artificial en mi contra en sus videos míos. ¡No puedo hacer eso Joe!

Trump parece referirse a una serie de 32 videos que se mostraron durante la audiencia de la Cámara en la que testificó el ex fiscal especial Robert Hur. Esos videos, mostrados por demócratas de la Cámara de Representantes, contenían casos en los que Trump no recordaba los nombres de líderes extranjeros, pronunciaba mal palabras simples (incluido “Estados Unidos”), hacía referencia a Barack Obama cuando se refería a Joe Biden y entregaba una plétora de comentarios sin sentido. Esa última categoría incluía una afirmación de que Los molinos de viento mataban ballenas..

Todos los videos eran fragmentos reales tomados de apariciones públicas de Trump. Pero su desprecio por considerarlos producto de la IA muestra cuán simple es sembrar dudas sobre cualquier evento, sin importar cuán público o bien documentado sea.

Durante el año pasado, incluso cuando la generación de imágenes por IA ha mejorado constantemente y vídeos de IA han ido más allá de curiosidades ridículas, ha habido una falsa confianza en que siempre se podría discernir la veracidad de estas imágenes. Mucha gente sigue creyendo que una mirada atenta a la ojos, extremidadeso dedos en las imágenes generadas localizará algunos defectos reveladores. O que, incluso en el caso de las raras imágenes de IA que podrían engañar al ojo humano, alguna herramienta de software desentrañaría fácilmente el engaño.

Los comentaristas del Wall Street Journal se apresuran a señalar problemas con estos videos de muestra creados con la herramienta Sora de OpenAI. Lo que no están señalando es que este es un trabajo muy, muy temprano de este sistema.

La era en la que las imágenes generadas por IA se pueden detectar fácilmente ya se está desvaneciendo. Como les gusta decir a las empresas y personalidades detrás de estas herramientas, Estos sistemas nunca serán peores de lo que son ahora.. A partir de aquí, sólo mejorarán. Las imágenes que crean serán cada vez más realistas y más difíciles de separar de las generadas con una cámara dirigida al mundo físico.

La línea entre lo real y lo falso se está volviendo muy borrosa, muy rápidamente. Sin embargo, incluso si nunca desaparece por completo, puede que eso no importe. Herramientas mucho menos sofisticadas de hace cinco años no sólo podía engañar a la gente sino también erosionar la confianza en lo que respecta a las imágenes en línea. La mayoría de la gente simplemente no va a examinar cada imagen en busca de defectos. O descartar las afirmaciones de que una imagen real es generada por IA.

La desinformación en las redes sociales no es sólo Aumentando el discurso de odio y el racismo en línea., también es una parte central de una creencia cada vez menor en el periodismo. De acuerdo a un Encuesta del Centro de Investigación Pew A partir de 2022, los adultos menores de 30 años tenían casi tanta confianza en lo que leían en los sitios de redes sociales como en la información de los medios de comunicación tradicionales. En todos los grupos de edad, hubo una fuerte caída de la confianza en las organizaciones de noticias nacionales en un período de sólo seis años.

Las redes sociales, repletas de trolls hambrientos de atención y Granjas de bots rusas, convirtió los sitios de redes sociales en un guiso de teorías de conspiración y desinformación. Ahora parece imposible pasar un día sin encontrarnos con casos en los que se utilizan herramientas de inteligencia artificial para crear narrativas falsas. Según se informa, ese puede ser el audio de IA utilizado difamar al director de una escuela secundaria con grabaciones falsas de comentarios racistas y antisemitas. A vídeo de tiktok que pretendía capturar la conversación entre un operador de emergencia y un sobreviviente del colapso del puente Francis Scott Key se volvió viral, a pesar de ser falso. O (y esto es tristemente real) anuncios de vídeo que promocionan Los medicamentos para la disfunción eréctil y el dictador ruso Vladimir Putin utilizando imágenes robadas de personas influyentes en línea.

Es poco probable que ese vídeo a favor de Putin sea una coincidencia. Al igual que con otra desinformación, Rusia ha estado a la vanguardia en el uso de herramientas de inteligencia artificial generativa como parte de su ampliar las campañas de desinformación. Incluso muchos de los rumores relacionados con Kate se remontan a un grupo vinculado al Kremlin en un plan que “parecía calculado para inflamar las divisiones, profundizar una sensación de caos en la sociedad y erosionar la confianza en las instituciones—en este caso, la familia real británica y los medios de comunicación”, según Los New York Times.

El momento en que las herramientas de inteligencia artificial puedan usarse para generar con confianza un video de Joe Biden aceptando un soborno, trabajadores electorales arrojando boletas de Trump a la basura o Trump golpeando un balón decente. tiro de golf Puede que falten meses… pero no son más que meses. Los mecanismos para identificar y eliminar esa desinformación convincente de las redes sociales no sólo son débiles, sino que en gran medida son inexistentes.

Pero incluso antes de que llegue la avalancha de falsificaciones, tenemos que lidiar con lo que puede ser el efecto más debilitante de este conjunto de herramientas en mejora: una duda profunda sobre las declaraciones, imágenes y videos que se publican. no falso. Estamos entrando en un mundo donde no existe una autoridad acordada, ni siquiera la evidencia de tus propios ojos.

En la guerra contra la realidad, la realidad está muy superada en número.


Otra elección especial acaba de traer aún más malas noticias para el Partido Republicano, pero la aplastante victoria de la demócrata Marilyn Lands debería hacer temblar a los republicanos. Como explicamos en el episodio de esta semana de The Downballot, esta fue la primera prueba de fertilización in vitro en las urnas desde el fallo de la Corte Suprema de Alabama que puso en peligro el procedimiento, y los republicanos fracasaron espectacularmente, con terribles implicaciones para noviembre.

Acción de campaña