Detector ‘Universal’ videos de AI Deepfake con precisión de registro

Un video de Deepfake del primer ministro australiano Anthony Albanese en un teléfono inteligente

Australian Associated Press/Alamy

Un detector universal de Deepfake ha alcanzado la mejor precisión hasta ahora al detectar múltiples tipos de videos manipulados o completamente generados por la inteligencia artificial. La tecnología puede ayudar a señalar pornografía generada por IA no consensuada, estafas de defake o videos de información errónea de las elecciones.

La disponibilidad generalizada de las herramientas de creación de defake profundas de IA baratas ha alimentado el Fuera de control de videos sintéticos fuera de control. Muchas representan mujeres, incluidas celebridades e incluso colegialas, en pornografía no consensuada. Y los profundos también se han utilizado para influir en las elecciones políticas, así como para mejorar las estafas financieras dirigidas a los consumidores comunes y a los ejecutivos de la compañía.

Pero la mayoría de los modelos de IA entrenados para detectar el enfoque de video sintético en las caras, lo que significa que son más efectivos para detectar un tipo específico de defake profundo, donde la cara de una persona real se cambia a un video existente. “Necesitamos un modelo que pueda detectar videos manipulados faciales, así como videos manipulados por fondo o totalmente generados por IA”, dice Rohit Kundu en la Universidad de California, Riverside. “Nuestro modelo aborda exactamente esa preocupación: suponemos que todo el video puede generarse sintéticamente”.

Kundu y sus colegas capacitaron a su detector universal con AI para monitorear múltiples elementos de fondo de videos, así como los rostros de las personas. Puede detectar signos sutiles de inconsistencias espaciales y temporales en Deepfakes. Como resultado, puede detectar condiciones de iluminación inconsistentes en las personas que fueron insertadas artificialmente en videos de intercambio de cara, discrepancias en los detalles de fondo de Videos completamente generados por IA e incluso signos de manipulación de IA en videos sintéticos que no contienen caras humanas. El detector también marca escenas de aspecto realista de Juegos de vídeocomo Grand Theft Auto V, que no son necesariamente generados por AI.

“La mayoría de los métodos existentes manejan videos faciales generados por IA, como intercambios de cara, videos de sincronización de labios o recreaciones de la cara que animan una cara de una sola imagen”, dice Siwei lyu en la Universidad de Buffalo en Nueva York. “Este método tiene un rango de aplicabilidad más amplio”.

El detector universal logró entre el 95 por ciento y el 99 por ciento de precisión al identificar cuatro conjuntos de videos de prueba que involucran defensores profundos manipulados faciales. Eso es mejor que todos los demás métodos publicados para detectar este tipo de defake profundo. Al monitorear videos completamente sintéticos, también tuvo resultados más precisos que cualquier otro detector evaluado hasta la fecha. Los investigadores presentó su trabajo en el IEEE/Conferencia de 2025 sobre visión por computadora y reconocimiento de patrones en Nashville, Tennessee, el 15 de junio.

Varios investigadores de Google también participaron en el desarrollo del nuevo detector. Google no respondió a las preguntas sobre si este método de detección podría ayudar a detectar defensores profundos en sus plataformas, como YouTube. Pero la compañía se encuentra entre las que apoyan un herramienta de marca de agua Eso hace que sea más fácil identificar el contenido generado por sus sistemas de IA.

El detector universal también podría mejorarse en el futuro. Por ejemplo, sería útil si pudiera detectar defensores profundos implementados durante las llamadas de videoconferencia en vivo, un truco que algunos estafadores ya han comenzado a usar.

“¿Cómo sabes que la persona del otro lado es auténtica, o es un video generado por defecto, y se puede determinar esto incluso cuando el video viaja a través de una red y se ve afectado por las características de la red, como el ancho de banda disponible?” dice Amit Roy-Chowdhury en la Universidad de California, Riverside. “Esa es otra dirección que estamos viendo en nuestro laboratorio”.

Temas: