Sei 217242335.jpg
Una imagen generada por IA de una familia posando al aire libre con una montaña a lo lejos.

Muchas imágenes generadas por IA parecen realistas hasta que las miras más de cerca.

A mitad de viaje

¿Te diste cuenta de que la imagen de arriba fue creada por inteligencia artificial? Puede resultar difícil detectar imágenes, videos, audios y textos generados por IA en un momento en que los avances tecnológicos los hacen cada vez más indistinguibles de gran parte del contenido creado por humanos, lo que nos deja expuestos a la manipulación mediante desinformación. Pero si conoces el estado actual de las tecnologías de IA que se utilizan para crear desinformación y la variedad de señales reveladoras de que lo que estás viendo puede ser falso, puedes ayudar a protegerte de ser engañado.

Los líderes mundiales están preocupados. Según Un informe del Foro Económico MundialLa desinformación y la información errónea pueden “perturbar radicalmente los procesos electorales en varias economías durante los próximos dos años”, mientras que un acceso más fácil a las herramientas de IA “ya ha permitido una explosión de información falsificada y contenido llamado ‘sintético’, desde sofisticadas clonaciones de voz hasta sitios web falsificados”.

Los términos desinformación y desinformación se refieren a información falsa o inexacta, pero la desinformación es aquella que tiene como objetivo deliberadamente engañar o inducir a error.

“El problema con la desinformación impulsada por IA es la escala, la velocidad y la facilidad con la que se pueden lanzar campañas”, dice Hany Farid en la Universidad de California, Berkeley. “Estos ataques ya no serán perpetrados por actores patrocinados por estados u organizaciones bien financiadas: un solo individuo con acceso a una modesta capacidad de procesamiento puede crear cantidades masivas de contenido falso”.

Dice que la IA generativa (ver glosario, abajo) está “contaminando todo el ecosistema de información, poniendo en duda todo lo que leemos, vemos y escuchamos”. Dice que su investigación sugiere que, en muchos casos, las imágenes y el audio generados por IA son “casi indistinguibles de la realidad”.

Sin embargo, la investigación de Farid y otros revela que existen estrategias que usted puede seguir para reducir el riesgo de caer en la desinformación de las redes sociales o en la desinformación creada por IA.

Cómo detectar imágenes falsas de IA

¿Recuerdas haber visto una foto de? El Papa Francisco con una chaqueta acolchada? Estas imágenes de IA falsas se han vuelto más comunes a medida que aparecen nuevas herramientas basadas en modelos de difusión (ver glosario, abajo) han permitido que cualquiera pueda empezar a producir imágenes a partir de indicaciones de texto simples. estudiar Un estudio de Nicholas Dufour en Google y sus colegas encontró un rápido aumento en la proporción de imágenes generadas por IA en afirmaciones de desinformación verificadas desde principios de 2023 en adelante.

“Hoy en día, la alfabetización mediática requiere alfabetización en inteligencia artificial”, afirma Negar Kamali en la Universidad Northwestern en Illinois. En 2024 estudiarElla y sus colegas identificaron cinco categorías diferentes de errores en imágenes generadas por IA (que se describen a continuación) y brindaron orientación sobre cómo las personas pueden detectarlos por sí mismas. La buena noticia es que su investigación sugiere que las personas actualmente tienen una precisión de alrededor del 70 por ciento al detectar imágenes falsas de personas generadas por IA. Puede usar su prueba de imagen en línea para evaluar tus propias habilidades detectivescas.

5 tipos comunes de errores en imágenes generadas por IA:

  1. Inverosimilitudes socioculturales: ¿La escena representa un comportamiento raro, inusual o sorprendente para ciertas culturas o personajes históricos?
  2. Inverosimilitudes anatómicas: Observa con atención: ¿hay partes del cuerpo como las manos que tienen formas o tamaños inusuales? ¿Los ojos o la boca tienen un aspecto extraño? ¿Se han fusionado algunas partes del cuerpo?
  3. Artefactos estilísticos: ¿La imagen parece poco natural, casi demasiado perfecta o estilizada? ¿El fondo parece extraño o como si le faltara algo? ¿La iluminación es extraña o variable?
  4. Improbabilidades funcionales: ¿Hay algún objeto que parezca extraño o que no sea real o que no funcione? Por ejemplo, ¿hay botones o hebillas de cinturón en lugares extraños?
  5. Violaciones de la física: ¿Las sombras apuntan en direcciones diferentes? ¿Los reflejos en el espejo son coherentes con el mundo representado en la imagen?
Una imagen de un hombre cepillándose los dientes con dos cepillos de dientes, uno de los cuales parece extraño, que ha sido generada por un programa de IA.

Los objetos y comportamientos extraños pueden ser pistas de que una imagen fue creada por IA

A mitad de viaje

Cómo identificar vídeos deepfakes

Tecnología de IA conocida como redes generativas antagónicas (ver glosario, abajo) ha permitido a las personas conocedoras de la tecnología crear videos deepfakes Desde 2014, se manipulan digitalmente videos existentes de personas para cambiar de rostro, crear nuevas expresiones faciales e insertar nuevo audio hablado alineado con la sincronización de labios correspondiente. Esto ha permitido que una creciente variedad de estafadores, piratas informáticos respaldados por el estado y usuarios de Internet produzcan videos falsos en los que celebridades como Taylor Swift y la gente común puede verse por igual, sin quererlo, incluida en pornografía deepfake no consensuada, estafas y desinformación o información política errónea.

Las técnicas para detectar imágenes falsas de IA (ver arriba) también se pueden aplicar a videos sospechosos. Además, investigadores del Instituto Tecnológico de Massachusetts y la Universidad Northwestern en Illinois han recopilado Algunos consejos sobre cómo detectar estos deepfakes, pero han reconocido que no existe un método infalible que siempre funcione.

6 consejos para detectar vídeos generados por IA:

  1. Movimientos de boca y labios: ¿Hay momentos en que el vídeo y el audio no están completamente sincronizados?
  2. Fallos anatómicos: ¿La cara o el cuerpo se ven extraños o se mueven de manera poco natural?
  3. Rostro: Busque inconsistencias en la suavidad del rostro o arrugas alrededor de la frente y las mejillas, junto con lunares faciales.
  4. Iluminación: ¿La iluminación es inconsistente? ¿Las sombras se comportan como se espera? Preste especial atención a los ojos, las cejas y las gafas de la persona.
  5. Cabello: ¿El vello facial se ve raro o se mueve de manera extraña?
  6. Parpadeo: Parpadear demasiado o muy poco podría ser señal de un deepfake.

Una categoría más nueva de deepfakes de video se basa en modelos de difusión (ver glosario, abajo) – la misma tecnología de IA detrás de muchos generadores de imágenes – que puede crear videoclips completamente generados por IA basados ​​en indicaciones de texto. Las empresas ya están probando y lanzando versiones comerciales de Generadores de video con IA Esto podría facilitar que cualquiera lo haga sin necesidad de conocimientos técnicos especiales. Hasta ahora, los videos resultantes tienden a mostrar rostros distorsionados o movimientos corporales extraños.

“Estos videos generados por IA son probablemente más fáciles de detectar para las personas que las imágenes, porque hay mucho movimiento y hay muchas más posibilidades de que se produzcan artefactos e imposibilidades generados por IA”, dice Kamali.


Cómo identificar bots de IA

Las cuentas de redes sociales controladas por bots informáticos se han vuelto comunes en muchas redes sociales y plataformas de mensajería. Un número cada vez mayor de estos bots también han estado aprovechando las tecnologías de inteligencia artificial generativa, como los grandes modelos de lenguaje (ver glosario, abajo) desde 2022. Esto hace que sea fácil y económico producir contenido escrito por IA a través de miles de bots que sea gramaticalmente correcto y convincentemente personalizado para diferentes situaciones.

Se ha vuelto mucho más fácil “personalizar estos grandes modelos de lenguaje para audiencias específicas con mensajes específicos”, dice Pablo Brenner en la Universidad de Notre Dame en Indiana.

Brenner y sus colegas descubrieron en su investigación que los voluntarios solo podían distinguir los robots impulsados ​​por IA de los humanos. alrededor del 42 por ciento del tiempo – a pesar de que se les dijo a los participantes que potencialmente estaban interactuando con bots. Puedes poner a prueba tus propias habilidades de detección de bots aquí.

Algunas estrategias pueden ayudar a identificar bots de IA menos sofisticados, dice Brenner.

5 formas de determinar si una cuenta de redes sociales es un bot de IA:

  1. Emojis y hashtags: El uso excesivo de estos puede ser una señal.
  2. Frases, elecciones de palabras o analogías poco comunes: Una redacción inusual podría indicar que se trata de un robot de IA.
  3. Repetición y estructura: Los bots pueden usar palabras repetidas que siguen formas similares o rígidas y pueden abusar de ciertos términos de jerga.
  4. Hacer las cuestiones: Estos pueden revelar la falta de conocimiento de un bot sobre un tema, particularmente cuando se trata de lugares y situaciones locales.
  5. Supongamos lo peor: Si una cuenta de redes sociales no es un contacto personal y su identidad no ha sido claramente validada o verificada, bien podría tratarse de un bot de IA.

Cómo detectar clonaciones de audio y deepfakes de voz

Clonación de voz (ver glosario, abajo) Las herramientas de inteligencia artificial han facilitado la generación de nuevos audios hablados que pueden imitar prácticamente a cualquier persona. Esto ha provocado el aumento de las estafas de audio deepfake que clonan las voces de familiares, ejecutivos de empresas y líderes políticos como el presidente estadounidense Joe Biden. Estos pueden ser mucho más difíciles de identificar en comparación con los videos o imágenes generados por inteligencia artificial.

“La clonación de voz es particularmente difícil de distinguir entre lo real y lo falso porque no hay componentes visuales que ayuden a nuestro cerebro a tomar esa decisión”, dice tabaco raquelcofundador de SocialProof Security, una organización de piratería informática de sombrero blanco.

Detectar estos deepfakes de audio generados por IA puede ser especialmente complicado cuando se utilizan en videollamadas y llamadas telefónicas. Pero hay algunos pasos de sentido común que puedes seguir para distinguir las voces humanas auténticas de las voces generadas por IA.

4 pasos para reconocer si un audio ha sido clonado o falsificado mediante IA:

  1. Personajes públicos: Si el clip de audio es de un funcionario electo o una celebridad, verifique si lo que está diciendo es consistente con lo que ya se ha informado o compartido públicamente sobre sus puntos de vista y comportamiento.
  2. Busque inconsistencias: Compare el clip de audio con clips de audio o video autenticados previamente que incluyan la voz de la misma persona. ¿Hay alguna inconsistencia en el sonido de su voz o en sus gestos al hablar?
  3. Silencios incómodos: Si está escuchando una llamada telefónica o un mensaje de voz y el hablante hace pausas inusualmente largas mientras habla, es posible que esté usando tecnología de clonación de voz impulsada por IA.
  4. Extraño y prolijo: Cualquier patrón de habla robótico o una manera inusualmente verbosa de hablar podría indicar que alguien está usando una combinación de clonación de voz para imitar la voz de una persona y un gran modelo de lenguaje para generar la redacción exacta.
Captura de pantalla de una versión generada por IA de Narendra Modi bailando la canción Gangnam Style

Figuras públicas como Narendra Modi que se comportan de manera extraña pueden ser un indicio de inteligencia artificial

@el_indio_deepfaker

La tecnología sólo mejorará

En la actualidad, no existen reglas uniformes que permitan distinguir siempre el contenido generado por IA del contenido humano auténtico. Es casi seguro que los modelos de IA capaces de generar texto, imágenes, vídeos y audio seguirán mejorando y, a menudo, podrán producir rápidamente contenido que parezca auténtico sin artefactos ni errores evidentes. “Hay que ser cortésmente paranoico y darse cuenta de que la IA ha estado manipulando y fabricando imágenes, vídeos y audio rápidamente; estamos hablando de que se ha completado en 30 segundos o menos”, afirma Tobac. “Esto facilita que individuos maliciosos que buscan engañar a la gente den la vuelta a la desinformación generada por IA rápidamente, llegando a las redes sociales en cuestión de minutos después de que se publique la noticia de última hora”.

Si bien es importante agudizar el ojo para detectar la información falsa generada por la IA y aprender a hacer más preguntas sobre lo que leemos, vemos y escuchamos, en última instancia esto no será suficiente para detener el daño y la responsabilidad de detectar las falsificaciones no puede recaer completamente sobre las personas. Farid se encuentra entre los investigadores que dicen que los reguladores gubernamentales deben exigir cuentas a las empresas tecnológicas más grandes, junto con las empresas emergentes respaldadas por destacados inversores de Silicon Valley, que han desarrollado muchas de las herramientas que están inundando Internet con contenido falso generado por IA. «La tecnología no es neutral», dice Farid. «Esta idea que nos ha vendido el sector tecnológico de que de alguna manera no tienen que asumir la responsabilidad que sí tienen todas las demás industrias, simplemente la rechazo».

Modelos de difusión:Modelos de IA que aprenden agregando primero ruido aleatorio a los datos (como desenfocar una imagen) y luego invirtiendo el proceso para recuperar los datos originales.

Redes generativas antagónicas:Un método de aprendizaje automático basado en dos redes neuronales que compiten modificando datos originales y luego intentan predecir si los datos generados son auténticos o reales.

IA generativa: Una amplia clase de modelos de IA que pueden producir texto, imágenes, audio y video después de haber sido entrenados en formas similares de dicho contenido.

Modelos de lenguaje de gran tamaño:Un subconjunto de modelos de IA generativos que pueden producir diferentes formas de contenido escrito en respuesta a indicaciones de texto y, a veces, traducir entre varios idiomas.

Clonación de voz:El método de utilizar modelos de IA para crear una copia digital de la voz de una persona y luego generar potencialmente nuevas muestras de habla en esa voz.

Temas: