TL; DR: Skala es una función de correlación e intercambio de aprendizaje profundo para la teoría funcional de densidad (DFT) de Kohn-Sham que apunta a una precisión de nivel híbrido a un costo semilocal, informando MAE ≈ 1,06 kcal/mol en W4-17 (0,85 en el subconjunto de referencia única) y WTMAD-2 ≈ 3,89 kcal/mol en GMTKN55; las evaluaciones utilizan una corrección de dispersión fija D3(BJ). Actualmente está posicionado para la química molecular de los grupos principales, con metales de transición y sistemas periódicos programados como futuras extensiones. Azure AI Foundry El modelo y las herramientas ya están disponibles a través de Azure AI Foundry Labs y el repositorio de código abierto de Microsoft/skala.
¿Cuánta relación de compresión y rendimiento recuperaría al entrenar un compresor de gráficos con reconocimiento de formato y enviar solo un gráfico autodescriptivo a un decodificador universal? Microsoft Research ha lanzado Skala, una función de correlación-intercambio neuronal (XC) para la teoría funcional de densidad de Kohn-Sham (DFT). Skala aprende efectos no locales a partir de los datos y al mismo tiempo mantiene el perfil computacional comparable a los funcionales meta-GGA.
¿Qué es (y qué no es) Skala?
Skala reemplaza una forma XC hecha a mano con una funcionalidad neuronal evaluada en características estándar de cuadrícula meta-GGA. Explícitamente no intenta aprender la dispersión en esta primera versión; Las evaluaciones de referencia utilizan una corrección D3 fija (D3(BJ) a menos que se indique lo contrario). El objetivo es una termoquímica rigurosa del grupo principal a un costo semilocal, no una funcional universal para todos los regímenes desde el primer día.
Puntos de referencia
En cuanto a las energías de atomización de W4-17, Skala informa MAE 1,06 kcal/mol en el conjunto completo y 0,85 kcal/mol en el subconjunto de referencia única. En GMTKN55, Skala alcanza WTMAD-2 3,89 kcal/mol, competitivo con los mejores híbridos; Todos los funcionales se evaluaron con los mismos ajustes de dispersión (D3(BJ) a menos que se aplique VV10/D3(0)).
Arquitectura y formación
Skala evalúa las características meta-GGA en la cuadrícula de integración numérica estándar, luego agrega información a través de un operador neuronal no local de rango finito (factor de mejora acotado; consciente de restricciones exactas que incluyen Lieb-Oxford, consistencia de tamaño y escala de coordenadas). El entrenamiento se desarrolla en dos fases: (1) entrenamiento previo en densidades B3LYP con etiquetas XC extraídas de energías de función de onda de alto nivel; (2) Ajuste fino de SCF-in-the-loop utilizando las propias densidades de Skala (sin respaldo a través de SCF).
El modelo se entrena en un corpus grande y curado dominado por energías de atomización total de alta precisión de ~80k (MSR-ACC/TAE) más reacciones/propiedades adicionales, con W4-17 y GMTKN55 eliminados del entrenamiento para evitar fugas.
Perfil de costos e implementación
Skala mantiene una escala de costos semilocal y está diseñado para la ejecución de GPU a través de GauXC; el repositorio público expone: (i) una implementación de PyTorch y un paquete PyPI de microsoft-skala con ganchos PySCF/ASE, y (ii) un complemento GauXC que se puede utilizar para integrar Skala en otras pilas de DFT. El archivo README enumera ~276k parámetros y proporciona ejemplos mínimos.
Solicitud
En la práctica, Skala se ubica en los flujos de trabajo moleculares del grupo principal donde el costo semilocal y la precisión de nivel híbrido son importantes: energía de reacción de alto rendimiento (ΔE, estimaciones de barrera), clasificación de estabilidad de confórmeros/radicales y predicciones de geometría/dipolos que alimentan los bucles QSAR/optimización de clientes potenciales. Debido a que está expuesto a través de PySCF/ASE y una ruta de GPU GauXC, los equipos pueden ejecutar trabajos SCF por lotes y seleccionar candidatos en un tiempo de ejecución cercano a meta-GGA, luego reservar híbridos/CC para verificaciones finales. Para experimentos administrados y uso compartido, Skala está disponible en Azure AI Foundry Labs y como una pila abierta de GitHub/PyPI.
Conclusiones clave
Rendimiento: Skala alcanza MAE 1,06 kcal/mol en W4-17 (0,85 en el subconjunto de referencia única) y WTMAD-2 3,89 kcal/mol en GMTKN55; la dispersión se aplica a través de D3(BJ) en las evaluaciones informadas. Método: un XC neuronal funcional con entradas meta-GGA y no localidad aprendida de rango finito, respetando las restricciones exactas clave; Conserva el costo de O(N³) semilocal y no aprende la dispersión en esta versión. Señal de entrenamiento: Entrenada en ~150k etiquetas de alta precisión, incluidas ~80k energías de atomización de calidad CCSD(T)/CBS (MSR-ACC/TAE); El ajuste fino de SCF-in-the-loop utiliza las propias densidades de Skala; Los conjuntos de pruebas públicos se eliminan de la duplicación del entrenamiento.
Skala es un paso pragmático: un XC funcional neuronal que informa MAE 1,06 kcal/mol en W4-17 (0,85 en referencia única) y WTMAD-2 3,89 kcal/mol en GMTKN55, evaluado con dispersión D3(BJ) y abarcado hoy a los sistemas moleculares del grupo principal. Es accesible para realizar pruebas a través de Azure AI Foundry Labs con código e integraciones de PySCF/ASE en GitHub, lo que permite líneas de base directas frente a meta-GGA e híbridos existentes.
Consulte el documento técnico, la página de GitHub y el blog técnico. No dude en consultar nuestra página de GitHub para tutoriales, códigos y cuadernos. Además, no dude en seguirnos en Twitter y no olvide unirse a nuestro SubReddit de más de 100.000 ML y suscribirse a nuestro boletín. ¡Esperar! estas en telegrama? Ahora también puedes unirte a nosotros en Telegram.
Asif Razzaq es el director ejecutivo de Marktechpost Media Inc.. Como emprendedor e ingeniero visionario, Asif está comprometido a aprovechar el potencial de la inteligencia artificial para el bien social. Su esfuerzo más reciente es el lanzamiento de una plataforma de medios de inteligencia artificial, Marktechpost, que se destaca por su cobertura en profundidad del aprendizaje automático y las noticias sobre aprendizaje profundo que es técnicamente sólida y fácilmente comprensible para una amplia audiencia. La plataforma cuenta con más de 2 millones de visitas mensuales, lo que ilustra su popularidad entre el público.
🙌 Siga MARKTECHPOST: agréguenos como fuente preferida en Google.