Detección de contenido de IA generativa.  Sobre deepfakes, autenticidad y… |  de Stephanie Kirmer |  noviembre de 2023

Sobre deepfakes, autenticidad y la Orden Ejecutiva del Presidente sobre IA

¿Puedes detectar la falsificación? Foto por libertad ann en desempaquetar

Una de las muchas cuestiones éticas interesantes que surgen con los avances de la IA generativa es Detección del producto de modelos.. También es una cuestión práctica para aquellos de nosotros que consumimos medios. ¿Esto que estoy leyendo o mirando es producto del trabajo reflexivo de una persona, o simplemente palabras o imágenes generadas probabilísticamente para atraerme? ¿Importa? Si es así, ¿qué hacemos?

Cuando hablamos de que el contenido es difícil o imposible de detectar generado por IA, estamos entrando en algo parecido a una prueba de Turing. Decir que te regalo un párrafo de texto o un archivo de imagen. Si les pregunto: “¿Esto fue producido por un ser humano o un modelo de aprendizaje automático?”, y no pueden decirlo con precisión, entonces hemos llegado al punto en el que debemos pensar en estas cuestiones.

En muchas áreas estamos cerca de esto, especialmente con GPT-4, pero incluso con modelos menos sofisticados, dependiendo del tipo de mensaje que usemos y el volumen del contexto. Si tenemos un documento largo de un modelo GPT, probablemente será más fácil detectar que no es generado por humanos, porque cada palabra nueva es una oportunidad para que el modelo haga algo que una persona normal no haría. Lo mismo ocurre con un vídeo o una imagen de alta resolución: cuantas más posibilidades de que aparezca la pixelación o el valle inquietante, más oportunidades tendremos de detectar lo falso.

También me parece claro que a medida que nos familiaricemos más con el contenido generado por modelos, mejoraremos en la identificación de signos reveladores de la participación de la IA en el contenido. Tal como lo describí hace varias semanas en mi explicación de cómo funcionan las redes generativas adversarias, nosotros mismos estamos en una especie de relación GAN con la IA generativa. Los modelos están trabajando para crear el contenido más humano posible y estamos aumentando nuestra capacidad para saber que no es humano. Es como una carrera en la que cada bando trabaja para burlar al otro.

A medida que nos familiaricemos más con el contenido generado por modelos, mejoraremos en la identificación de signos reveladores de la participación de la IA en el contenido.

Sin embargo, probablemente haya un límite en lo buenos que podemos llegar a ser en esta detección, y los modelos superarán a los ojos y oídos humanos normales (si aún no lo han hecho). Simplemente no tenemos las capacidades sensoriales y la sofisticación de reconocimiento de patrones que puede tener un modelo gigante. Afortunadamente, también podemos usar modelos como herramientas en nuestro lado de la carrera, entrenando modelos para examinar el contenido y determinar que no es generado por humanos, por lo que esa es una herramienta en nuestro carcaj.

Sin embargo, en algún momento, es posible que no haya signos detectables de manera confiable de los orígenes del aprendizaje automático para algunos contenidos, especialmente en pequeñas cantidades. Filosóficamente hablando, dado el avance ilimitado del modelo, probablemente llegue un punto en el que no HAY diferencia real entre los dos tipos de contenido. Además, la mayoría de nosotros no usaremos un modelo para probar todos los medios que consumimos y asegurarnos de que sean auténticos y generados por humanos. En respuesta, algunas organizaciones, como la Iniciativa de autenticidad de contenido, están impulsando esfuerzos para lograr que los metadatos de autenticación de contenido se adopten ampliamente, lo que podría ser de ayuda. Este tipo de esfuerzos, sin embargo, requieren buena voluntad y trabajo por parte de las personas que ponen a disposición los modelos.

Sin embargo, en algún momento, es posible que no haya signos detectables de manera confiable de los orígenes del aprendizaje automático para algún contenido.

Quizás se pregunte, bueno, ¿qué pasa con las personas que son intencionalmente malos actores que intentan crear daño con deepfakes o desinformación utilizando contenido generado por IA? No se ofrecerán voluntariamente para identificar su contenido, ¿verdad? Es una pregunta justa. Sin embargo, al menos en este momento, los modelos que son lo suficientemente sofisticados como para engañar a la gente a escala están en su mayoría bajo el control de grandes empresas (OpenAI, etc.). Este no seguirá siendo el caso, pero en este momento al menos haría una mella sólida en la cuestión de la procedencia si las personas que atienden al público los LLM más sofisticados tomaran alguna medida al respecto.

Esta no es una historia muy optimista, hasta el momento. La IA generativa avanza rápidamente hacia un lugar donde esos modelos muy poderosos son lo suficientemente pequeños como para que los malos actores puedan administrar los suyos propios, y donde esos modelos crean fácilmente contenido que es literalmente indistinguible del contenido humano orgánico, incluso por otros modelos.

Aunque me he adelantado un poco. ¿Por qué es tan importante para todos que averigüemos si el contenido proviene de un modelo en primer lugar? Si no puedes decirlo, ¿importa?

Una razón importante es que el proveedor del contenido puede tener intenciones maliciosas, como información errónea o deepfakes. La creación de imágenes, audio y video son los escenarios más comunes aquí, haciendo que parezca que alguien dijo o hizo algo que no hizo. Si has estado siguiendo el Orden ejecutiva del presidente de EE. UU. sobre IA, es posible que haya escuchado que el presidente Biden se interesó en esto porque escuchó sobre la posibilidad de que la gente use su imagen y voz de manera fraudulenta para desinformar. Este es un tema muy serio, porque en estos momentos tendemos a confiar en lo que vemos con nuestros propios ojos en imágenes o videos, y eso puede tener un impacto significativo en la vida y seguridad de las personas.

En estos momentos tendemos a confiar en lo que vemos con nuestros propios ojos en imágenes o vídeos, y eso puede tener un impacto significativo en la vida y seguridad de las personas.

Un problema relacionado es cuando se utilizan modelos para imitar el trabajo de humanos específicos, no necesariamente por razones maliciosas, sino simplemente porque ese trabajo es divertido, popular y potencialmente rentable. Es sencillamente poco ético, pero en la mayoría de los casos probablemente no tenga la intención de dañar activamente ni a la audiencia ni a la persona que está siendo imitada. (Por supuesto, perjudica a las personas: quita el potencial de ingresos y el sustento de los artistas y escritores, de los cuales los productores del contenido deberían asumir la responsabilidad). Esto también puede causar daños a la reputación cuando se utilizan deepfakes para mentir sobre las acciones de las personas. (Solo pregunta Joe Rogan, que ha estado luchando contra los anuncios usando su imagen en deepfakes.)

Un tercer ángulo en el que comencé a pensar después de que Casey Newton lo discutiera en su Número del 5 de octubre de Plataformas Existe el riesgo de que figuras públicas puedan invertir la cuestión y afirmar que se generan artificialmente pruebas reales y auténticas de su mal comportamiento. ¿Qué hacemos cuando no podemos descubrir fechorías de manera confiable utilizando evidencia, porque “es un deepfake” es una respuesta infalsificable? Todavía no hemos llegado a ese punto, pero creo que esto se convertirá en un problema real en un futuro no muy lejano.

¿Qué hacemos cuando no podemos descubrir fechorías de manera confiable utilizando evidencia, porque “es un deepfake” es una respuesta infalsificable?

De manera menos urgente, también creo que hay algo en querer que mi consumo de medios represente un compromiso con otra persona, a pesar de que se trata de un movimiento de ideas principalmente en un solo sentido. Pienso que leer o consumir arte es un compromiso con los pensamientos de otra persona, y relacionarse con palabras unidas por un modelo no tiene la misma sensación. Personalmente, me gustaría saber si el contenido que consumo es producido por humanos.

Teniendo en cuenta todos estos riesgos tan reales, nos enfrentamos a algunos desafíos serios. Parece haber una compensación entre la procedencia detectable (es decir, la seguridad para el público en general y todos los problemas que describí anteriormente) y la sofisticación del modelo y, como industria, la ciencia de datos está avanzando hacia el lado de la sofisticación del modelo. ¿Quién equilibrará la balanza?

La orden ejecutiva del presidente representa un avance significativo en este tema. (También habla de muchos otros temas importantes, que tal vez analice en otro momento). Pasé la última semana y media pensando en esta orden ejecutiva y leyendo las perspectivas de otras personas de toda la industria. Si bien hay algunos que argumentan que va a sofocar el avance (y que cosificará a los grandes actores de la IA generativa, a expensas de los competidores más pequeños), creo que he llegado al lado de ser optimista sobre la orden ejecutiva.

Crear modelos competitivos de IA generativa es increíblemente costoso y requiere muchos recursos, y esto naturalmente limita la cantidad de competidores que pueden ingresar al espacio en primer lugar. Para mí no tiene sentido proteger a hipotéticos nuevos actores en este espacio a expensas de una seguridad social más amplia. Tampoco creo que la orden ejecutiva sea en absoluto onerosa para aquellas organizaciones que tienen los recursos para estar en esta sala en primer lugar.

La orden en sí tampoco es tan prescriptiva. Requiere que se creen una serie de cosas, pero deja un amplio margen de maniobra sobre cómo debería suceder, y es de esperar que en esos procesos participen personas bien informadas. 🤞 (Los científicos de datos en el campo deberían esforzarse en monitorear lo que sucede y expresarse si se está descarrilando). En particular, solicita al Departamento de Comercio que cree “estándares y mejores prácticas para detectar contenido generado por IA y autenticar el contenido oficial”. También hay algunos componentes importantes relacionados con la seguridad y la protección en lo que respecta a los modelos.

¿Tengo una enorme confianza en que nuestro gobierno hará un gran trabajo al regular la IA sin dañar la innovación? No en realidad no. Pero estoy seguro de que la industria, abandonada a su suerte, no prestará tanta atención a las cuestiones de procedencia y detección de contenido como se necesita; hasta ahora no han demostrado que esto sea una prioridad.

Estoy seguro de que la industria, abandonada a su suerte, no prestará tanta atención a las cuestiones de procedencia y detección de contenido como sería necesaria.

Al mismo tiempo, no estoy seguro de que detectar contenido generado por IA sea físicamente posible en todos o incluso en la mayoría de los contextos, especialmente a medida que avanzamos. La orden ejecutiva no dice nada sobre impedir que se desarrollen modelos si su contenido cruza territorio indetectable, pero ese riesgo sí me preocupa. Eso realmente sería asfixiar la innovación, y debemos pensar con mucho cuidado cuáles son o podrían ser las compensaciones. Sin embargo, es posible que el caballo ya esté fuera de ese granero en particular: hay muchos modelos de IA generativa de código abierto en el mundo, mejorando continuamente en lo que hacen.

Este tema es difícil y la acción correcta a tomar no necesariamente está muy clara. Cuanto más sofisticado y complejo sea el resultado de un modelo, mayores serán nuestras posibilidades de detectar que el resultado no es generado por humanos, pero estamos en una carrera tecnológica que hará que esa detección sea cada vez más difícil. La participación política en el tema puede darnos algunas barreras de seguridad, pero aún no podemos saber si realmente ayudará o si resultará en un desastre torpe.

Éste es uno de esos momentos en los que no tengo forma de cerrar la discusión con un arco ordenado. Los riesgos potenciales y reales de una producción de IA generativa indistinguible son graves y deben tratarse como tales. Sin embargo, estamos en una situación científico-matemática en la que no podemos crear una solución rápida o sencilla, y debemos valorar los beneficios que podría producir una IA generativa más avanzada.

De todos modos, los científicos de datos deberían tomarse el tiempo para leer la orden ejecutiva o al menos la hoja informativa, y tener claro lo que dice y lo que no dice la declaración. Como sabrán los lectores habituales, creo que tenemos que ser responsables de difundir información precisa y accesible sobre estos temas a las personas comunes en nuestras vidas, y esta es una buena oportunidad, ya que el tema está en las noticias. Asegúrese de contribuir positivamente a la alfabetización en ciencia de datos que lo rodea.