Estudiar el comportamiento animal es crucial para comprender cómo interactúan las diferentes especies e individuos con su entorno. Se prefiere la codificación de vídeo para recopilar datos de comportamiento detallados, pero extraer manualmente información de secuencias de vídeo extensas lleva mucho tiempo. Del mismo modo, codificar manualmente el comportamiento animal exige un entrenamiento importante para lograr confiabilidad.
El aprendizaje automático ha surgido como una solución que automatiza la extracción de datos y mejora la eficiencia manteniendo la confiabilidad. Ha reconocido con éxito especies, individuos y comportamientos específicos en videos, transformando la investigación del comportamiento al rastrear especies en imágenes de cámaras trampa e identificar animales en tiempo real.
Sin embargo, persisten desafíos en el seguimiento del comportamiento matizado, especialmente en entornos salvajes. Si bien las herramientas actuales destacan en entornos controlados, los avances recientes sugieren el potencial de expandir estas técnicas a diversas especies y hábitats complejos. La combinación de métodos de aprendizaje automático, como las CNN de acción espaciotemporal y modelos de estimación de pose, ofrece una visión holística del comportamiento a lo largo del tiempo.
En este contexto, se publicó recientemente un nuevo artículo en el Journal of Animal Ecology que gira en torno a las herramientas de aprendizaje automático, en particular DeepLabCut, para analizar datos de comportamiento de animales salvajes, especialmente primates como chimpancés y bonobos. Destaca los desafíos que enfrentan al codificar y extraer manualmente información de comportamiento de secuencias de video extensas y el potencial del aprendizaje automático para automatizar este proceso, reduciendo así significativamente el tiempo y mejorando la confiabilidad.
El artículo detalla el uso de DeepLabCut para analizar el comportamiento animal, cita varias guías para la instalación y el uso inicial, enfatizando la necesidad de la instalación de Python. También analiza los requisitos de hardware, incluida la recomendación de una GPU y la opción de utilizar Google Colaboratory. Se cubren las funcionalidades, limitaciones y la necesidad de gráficos de pérdidas para medir el progreso del entrenamiento del modelo. Se destacan la extracción de datos de vídeo de la base de datos del Diccionario de Grandes Simios y las consideraciones éticas con respecto a la recopilación de datos.
Además, el documento describe los criterios de selección de videos, incluido el “ruido” visual para diversas experiencias de aprendizaje, y los desafíos para determinar la cantidad requerida de fotogramas de entrenamiento en función de la complejidad de los datos. Se detallan el desarrollo de modelos, los conjuntos de entrenamiento y los métodos de preparación de videos, y se analizan las limitaciones con respecto al tiempo de marcado de fotogramas y el hardware utilizado. Se explica la evaluación del rendimiento de los modelos entrenados, incluidas comparaciones entre los puntos generados por el modelo y los etiquetados por humanos, junto con evaluaciones en marcos de prueba y videos novedosos.
Los autores realizaron experimentos utilizando DeepLabCut para desarrollar y evaluar modelos para rastrear los movimientos de chimpancés y bonobos salvajes. Entrenaron dos modelos en diferentes cuadros de video, comparando su desempeño en ambos cuadros de prueba (que contenían algunos datos de entrenamiento) y videos completamente nuevos.
- El modelo 1 se entrenó en 1375 fotogramas, mientras que el modelo 2 utilizó un conjunto más grande de 2200 fotogramas, incluida la entrada de un segundo codificador humano y datos de una comunidad de chimpancés adicional.
- Se marcaron puntos clave sobre los primates en los fotogramas del vídeo para facilitar el entrenamiento.
- Ambos modelos se probaron en fotogramas utilizados durante el entrenamiento (fotogramas de prueba) y vídeos completamente nuevos (vídeos novedosos) para evaluar su precisión en el seguimiento de los movimientos de los primates.
La evaluación de los fotogramas de prueba reveló que ambos modelos mostraron una mayor precisión al marcar puntos clave en fotogramas de vídeo de chimpancés salvajes en comparación con la variación del codificador humano. El Modelo 2 superó consistentemente al Modelo 1 en múltiples partes del cuerpo en estos marcos de prueba. Además, cuando se probó en videos novedosos, el Modelo 2 mostró capacidades superiores en la detección de puntos del cuerpo y precisión en varias partes del cuerpo en comparación con el Modelo 1. A pesar de estas mejoras, ambos modelos enfrentaron dificultades para vincular efectivamente los puntos detectados, lo que resultó en problemas de seguimiento en videos específicos.
El estudio reveló resultados prometedores en el uso de DeepLabCut para rastrear los movimientos de primates en entornos naturales. Sin embargo, destacó la necesidad de intervención humana para corregir los errores de seguimiento y la necesidad de mucho tiempo para desarrollar modelos robustos a través de una capacitación exhaustiva.
En conclusión, el artículo demuestra el potencial de DeepLabCut y el aprendizaje automático para automatizar el análisis del comportamiento de los primates salvajes. Si bien supone un progreso significativo en el seguimiento de los movimientos de los animales, persisten los desafíos, en particular la necesidad de intervención humana en la corrección de errores y el proceso de desarrollo de modelos que requiere mucho tiempo. Estos hallazgos resaltan el impacto transformador del aprendizaje automático en la investigación del comportamiento, al tiempo que subrayan la necesidad continua de perfeccionar los sistemas de seguimiento del comportamiento matizado en entornos naturales.
Revisar la Papel. Todo el crédito por esta investigación va a los investigadores de este proyecto. Además, no olvides seguirnos en Gorjeo. Unirse nuestro SubReddit de más de 35.000 ml, 41k+ comunidad de Facebook, Canal de discordiay LinkedIn Grarriba.
Si te gusta nuestro trabajo, te encantará nuestra newsletter.
Mahmoud es un investigador de doctorado en aprendizaje automático. También posee un
Licenciatura en Ciencias Físicas y Maestría en
sistemas de telecomunicaciones y redes. Sus áreas actuales de
Las investigaciones se refieren a la visión por computadora, la predicción del mercado de valores y la profundidad.
aprendiendo. Produjo varios artículos científicos sobre la relación de personas.
identificación y estudio de la robustez y estabilidad de profundidades
redes.