Investigadores de inteligencia artificial de Bytedance y la Universidad de Ciencia y Tecnología Rey Abdullah presentan un marco novedoso para animar el cabello al soplar en fotografías de retratos

El cabello es una de las características más notables del cuerpo humano e impresiona por sus cualidades dinámicas que dan vida a las escenas. Los estudios han demostrado consistentemente que los elementos dinámicos tienen un mayor atractivo y fascinación que las imágenes estáticas. Las plataformas de redes sociales como TikTok e Instagram son testigos del intercambio diario de grandes fotografías de retratos a medida que las personas aspiran a hacer que sus imágenes sean atractivas y artísticamente cautivadoras. Este impulso impulsa la exploración de los investigadores en el ámbito de la animación del cabello humano en imágenes fijas, con el objetivo de ofrecer una experiencia visual vívida, estéticamente agradable y hermosa.

Los avances recientes en el campo han introducido métodos para infundir imágenes fijas con elementos dinámicos, animando sustancias fluidas como agua, humo y fuego dentro del marco. Sin embargo, estos enfoques han pasado por alto en gran medida la naturaleza intrincada del cabello humano en fotografías de la vida real. Este artículo se centra en la transformación artística del cabello humano dentro de la fotografía de retrato, que implica traducir la imagen en un cinemagraph.

Un cinemagraph representa un formato de vídeo corto innovador que goza del favor de fotógrafos, anunciantes y artistas profesionales. Encuentra utilidad en varios medios digitales, incluidos anuncios digitales, publicaciones en redes sociales y páginas de destino. La fascinación por los cinemagraphs radica en su capacidad de fusionar los puntos fuertes de las imágenes fijas y los vídeos. Ciertas áreas dentro de un cinemagraph presentan movimientos sutiles y repetitivos en un bucle corto, mientras que el resto permanece estático. Este contraste entre elementos estacionarios y móviles cautiva efectivamente la atención del espectador.

A través de la transformación de una fotografía de retrato en un cinemagraph, completo con sutiles movimientos del cabello, la idea es realzar el atractivo de la fotografía sin restar valor al contenido estático, creando una experiencia visual más convincente y atractiva.

Se han desarrollado técnicas y software comercial existentes para generar cinemagraphs de alta fidelidad a partir de vídeos de entrada congelando selectivamente ciertas regiones del vídeo. Lamentablemente, estas herramientas no son adecuadas para procesar imágenes fijas. Por el contrario, ha habido un interés creciente en la animación de imágenes fijas. La mayoría de estos enfoques se han centrado en animar elementos fluidos como nubes, agua y humo. Sin embargo, el comportamiento dinámico del cabello, compuesto de materiales fibrosos, presenta un desafío distintivo en comparación con los elementos fluidos. A diferencia de la animación de elementos fluidos, que ha recibido mucha atención, la animación del cabello humano en fotografías de retratos reales ha sido relativamente inexplorada.

Animar el cabello en una fotografía de retrato estático es un desafío debido a la intrincada complejidad de las estructuras y dinámicas del cabello. A diferencia de las superficies lisas del cuerpo o la cara humana, el cabello comprende cientos de miles de componentes individuales, lo que da como resultado estructuras complejas y no uniformes. Esta complejidad conduce a patrones de movimiento intrincados dentro del cabello, incluidas interacciones con la cabeza. Si bien existen técnicas especializadas para modelar el cabello, como el uso de conjuntos de cámaras densas y cámaras de alta velocidad, a menudo son costosas y consumen mucho tiempo, lo que limita su practicidad para la animación del cabello en el mundo real.

El artículo presentado en este artículo presenta un nuevo método de IA para animar automáticamente el cabello dentro de una fotografía de retrato estática, eliminando la necesidad de intervención del usuario o configuraciones complejas de hardware. La idea detrás de este enfoque radica en la sensibilidad reducida del sistema visual humano a los mechones de cabello individuales y sus movimientos en vídeos de retratos reales, en comparación con los mechones sintéticos de un humano digitalizado en un entorno virtual. La solución propuesta es animar “mechones de cabello” en lugar de mechones individuales, creando una experiencia visual agradable. Para lograr esto, el artículo presenta un módulo de animación de mechones de cabello, lo que permite una solución eficiente y automatizada. A continuación se ilustra una descripción general de este marco.

El desafío clave en este contexto es cómo extraer estos mechones de cabello. Si bien trabajos relacionados, como el modelado del cabello, se han centrado en la segmentación del cabello, estos enfoques apuntan principalmente a la extracción de toda la región del cabello, lo que difiere del objetivo. Para extraer mechones de cabello significativos, los investigadores enmarcan de manera innovadora la extracción de mechones de cabello como un problema de segmentación de instancias, donde un segmento individual dentro de una imagen fija corresponde a un mechón de cabello. Al adoptar esta definición de problema, los investigadores aprovechan las redes de segmentación de instancias para facilitar la extracción de mechones de cabello. Esto no sólo simplifica el problema de extracción del mechón de cabello, sino que también permite el uso de redes avanzadas para una extracción eficaz. Además, el artículo presenta la creación de un conjunto de datos de mechones de cabello que contiene fotografías de retratos reales para entrenar las redes, junto con un esquema de semianotación para producir anotaciones reales para los mechones de cabello identificados. En la siguiente figura se muestran algunos resultados de muestra del artículo en comparación con técnicas de última generación.

Este fue el resumen de un novedoso marco de IA diseñado para transformar retratos fijos en cinemagraphs animando mechones de cabello con movimientos agradables sin artefactos perceptibles. Si está interesado y desea obtener más información al respecto, no dude en consultar los enlaces que se citan a continuación.


Revisar la Papel y Página del proyecto. Todo el crédito por esta investigación va a los investigadores de este proyecto. Además, no olvides unirte. nuestro SubReddit de 31k+ ML, Comunidad de Facebook de más de 40.000 personas, Canal de discordia, y Boletín electrónicodonde compartimos las últimas noticias sobre investigaciones de IA, interesantes proyectos de IA y más.

Si te gusta nuestro trabajo, te encantará nuestra newsletter.

También estamos en WhatsApp. Únase a nuestro canal de IA en Whatsapp.


Daniele Lorenzi recibió su M.Sc. en TIC para Ingeniería de Internet y Multimedia en 2021 de la Universidad de Padua, Italia. Es un doctorado. Candidato en el Instituto de Tecnología de la Información (ITEC) de la Alpen-Adria-Universität (AAU) de Klagenfurt. Actualmente trabaja en el Laboratorio Christian Doppler ATHENA y sus intereses de investigación incluyen transmisión de video adaptativa, medios inmersivos, aprendizaje automático y evaluación de QoS/QoE.