Cisco y Splunk han presentado el modelo Cisco Time Series, un modelo básico univariante de series temporales de disparo cero diseñado para métricas de observabilidad y seguridad. Se lanza como un punto de control de peso abierto en Hugging Face bajo una licencia Apache 2.0 y apunta a pronosticar cargas de trabajo sin ajustes específicos de tareas. El modelo amplía TimesFM 2.0 con una arquitectura explícita de resolución múltiple que fusiona historia general y detallada en una ventana contextual.
¿Por qué la observabilidad necesita un contexto de resolución múltiple?
Las métricas de producción no son simples señales de escala única. Los patrones semanales, el crecimiento a largo plazo y la saturación son visibles sólo en resoluciones aproximadas. Los eventos de saturación, picos de tráfico y dinámicas de incidentes se muestran con una resolución de 1 o 5 minutos. Los modelos básicos de series de tiempo comunes funcionan con una resolución única con ventanas de contexto entre 512 y 4096 puntos, mientras que TimesFM 2.5 extiende esto a 16384 puntos. Para datos de 1 minuto, esto todavía cubre como máximo un par de semanas y, a menudo, menos.
Este es un problema de observabilidad donde las plataformas de datos a menudo retienen solo datos antiguos en forma agregada. Las muestras de grano fino caducan y sobreviven solo como acumulaciones de 1 hora. El modelo Cisco Time Series está diseñado para este patrón de almacenamiento. Trata el historial aproximado como una entrada de primera clase que mejora los pronósticos en resolución fina. La arquitectura opera directamente en un contexto de resolución múltiple en lugar de pretender que todas las entradas vivan en una única cuadrícula.
Objetivo de pronóstico y entrada de resolución múltiple
Formalmente, el modelo consume un par de contextos (xc, xf). El contexto grueso (x_c) y el contexto fino (x_f) tienen cada uno una longitud de hasta 512. El espaciado de (xc) se fija en 60 veces el espaciado de (xf). Una configuración de observabilidad típica utiliza 512 horas de agregados de 1 hora y 512 minutos de valores de 1 minuto. Ambas series terminan en el mismo punto de corte del pronóstico. El modelo predice un horizonte de 128 puntos con resolución fina, con una media y un conjunto de cuantiles de 0,1 a 0,9.
Arquitectura, núcleo de TimesFM con incrustaciones de resolución
Internamente, Cisco Time Series Model reutiliza la pila de decodificadores basada en parches de TimesFM. Las entradas se normalizan, se parchean en fragmentos que no se superponen y se pasan a través de un bloque de incrustación residual. El núcleo del transformador consta de 50 capas únicamente de decodificador. Un último bloque residual asigna tokens al horizonte. El equipo de investigación eliminó las incrustaciones posicionales y, en su lugar, se basó en el orden de los parches, la estructura multiresolución y una nueva incrustación de resolución para codificar la estructura.
Dos adiciones hacen que la arquitectura tenga en cuenta la resolución múltiple. Se inserta un token especial, a menudo llamado ST en el informe, entre los flujos de token grueso y fino. Vive en el espacio de secuencia y marca el límite entre resoluciones. Las incorporaciones de resolución, a menudo llamadas RE, se agregan en el espacio modelo. Se utiliza un vector de incrustación para todos los tokens gruesos y otro para todos los tokens finos. Los estudios de ablación incluidos en el artículo muestran que ambos componentes mejoran la calidad, especialmente en escenarios de contexto prolongado.
El procedimiento de decodificación también es multiresolución. El modelo genera pronósticos medios y cuantiles para el horizonte de resolución fina. Durante la decodificación de horizonte largo, los puntos finos recién predichos se agregan al contexto fino. Los agregados de estas predicciones actualizan el contexto aproximado. Esto crea un bucle autorregresivo en el que ambas resoluciones evolucionan juntas durante la previsión.
Datos de entrenamiento y receta.
El modelo Cisco Time Series se entrena mediante un entrenamiento previo continuo además de los pesos de TimesFM. El modelo final tiene 500 millones de parámetros. El entrenamiento utiliza AdamW para sesgos, normas e incrustaciones, y Muon para las capas ocultas, con programas de tasa de aprendizaje de cosenos. La pérdida combina el error cuadrático medio en el pronóstico medio con la pérdida cuantil sobre los cuantiles de 0,1 a 0,9. El equipo entrena durante 20 épocas y elige el mejor punto de control mediante pérdida de validación.
El conjunto de datos es grande y está sesgado hacia la observabilidad. El equipo de Splunk informa alrededor de 400 millones de series temporales de métricas de sus propias implementaciones de Splunk Observability Cloud, recopiladas con una resolución de 1 minuto durante 13 meses y agregadas parcialmente a una resolución de 5 minutos. El equipo de investigación afirma que el corpus final contiene más de 300 mil millones de puntos de datos únicos, con aproximadamente un 35 por ciento de observabilidad en 1 minuto, un 16,5 por ciento de observabilidad en 5 minutos, un 29,5 por ciento de datos de preentrenamiento de GIFT Eval, un 4,5 por ciento de conjuntos de datos de Chronos y un 14,5 por ciento de series sintéticas de KernelSynth.
Resultados comparativos sobre observabilidad y evaluación GIFT
El equipo de investigación evalúa el modelo según dos puntos de referencia principales. El primero es un conjunto de datos de observabilidad derivado de métricas de Splunk con resolución de 1 minuto y 5 minutos. La segunda es una versión filtrada de GIFT Eval, donde se eliminan los conjuntos de datos que filtran datos de entrenamiento de TimesFM 2.0.
En datos de observabilidad con una resolución de 1 minuto con 512 pasos finos, el modelo de serie temporal de Cisco que utiliza un contexto multiresolución de 512 reduce el error absoluto medio de 0,6265 para TimesFM 2.5 y 0,6315 para TimesFM 2.0 a 0,4788, con mejoras similares en el error escalado absoluto medio y la puntuación de probabilidad clasificada continua. Aparecen ganancias similares con una resolución de 5 minutos. En ambas resoluciones, el modelo supera las líneas base de Chronos 2, Chronos Bolt, Toto y AutoARIMA según las métricas normalizadas utilizadas en el artículo.
En el punto de referencia filtrado de GIFT Eval, el modelo Cisco Time Series coincide con el modelo base TimesFM 2.0 y tiene un rendimiento competitivo con TimesFM-2.5, Chronos-2 y Toto. La afirmación clave no es el dominio universal sino la preservación de la calidad general de los pronósticos y al mismo tiempo agregar una gran ventaja en ventanas de contexto largas y cargas de trabajo de observabilidad.
Conclusiones clave
El modelo Cisco Time Series es un modelo básico univariante de series temporales de disparo cero que amplía la columna vertebral exclusiva del decodificador TimesFM 2.0 con una arquitectura de resolución múltiple para métricas de observabilidad y seguridad. El modelo consume un contexto de resolución múltiple, con una serie gruesa y una serie fina, cada una de hasta 512 pasos de largo, donde la resolución gruesa es 60 veces la resolución fina, y predice 128 pasos de resolución fina con salidas medias y cuantiles. Cisco Time Series Model está entrenado en más de 300 mil millones de puntos de datos, con más de la mitad de observabilidad, mezclando datos de máquinas Splunk, GIFT Eval, conjuntos de datos Chronos y series sintéticas de KernelSynth, y tiene alrededor de 0,5 mil millones de parámetros. En los puntos de referencia de observabilidad con resoluciones de 1 minuto y 5 minutos, el modelo logra un error menor que el de TimesFM 2.0, Chronos y otras líneas de base, al tiempo que conserva un rendimiento competitivo en el punto de referencia de propósito general GIFT Eval.
Consulte el documento, el blog y la tarjeta modelo en HF. No dude en consultar nuestra página de GitHub para tutoriales, códigos y cuadernos. Además, no dude en seguirnos en Twitter y no olvide unirse a nuestro SubReddit de más de 100.000 ML y suscribirse a nuestro boletín. ¡Esperar! estas en telegrama? Ahora también puedes unirte a nosotros en Telegram.
Asif Razzaq es el director ejecutivo de Marktechpost Media Inc.. Como emprendedor e ingeniero visionario, Asif está comprometido a aprovechar el potencial de la inteligencia artificial para el bien social. Su esfuerzo más reciente es el lanzamiento de una plataforma de medios de inteligencia artificial, Marktechpost, que se destaca por su cobertura en profundidad del aprendizaje automático y las noticias sobre aprendizaje profundo que es técnicamente sólida y fácilmente comprensible para una amplia audiencia. La plataforma cuenta con más de 2 millones de visitas mensuales, lo que ilustra su popularidad entre el público.
🙌 Siga MARKTECHPOST: agréguenos como fuente preferida en Google.