Microsoft AI Research presenta Orca-Math: un modelo de lenguaje pequeño (SLM) de parámetros 7B creado mediante el ajuste del modelo Mistral 7B

La búsqueda para mejorar las experiencias de aprendizaje es interminable en el panorama de rápida evolución de la tecnología educativa, y las matemáticas se destacan como un dominio particularmente desafiante. Los métodos de enseñanza anteriores, aunque fundamentales, a menudo necesitan ponerse al día para satisfacer las diversas necesidades de los estudiantes, especialmente cuando se trata de la compleja habilidad de resolver problemas matemáticos. El quid de la cuestión radica en el desarrollo de herramientas escalables y eficaces que enseñen y evalúen con precisión las habilidades de resolución de problemas matemáticos en un amplio espectro de estudiantes.

Microsoft Research ha presentado una herramienta de vanguardia llamada Orca-Math, impulsada por un modelo de lenguaje pequeño (SLM) que cuenta con 7 mil millones de parámetros y está basado en la arquitectura Mistral-7B. Este enfoque innovador redefine las estrategias tradicionales en la enseñanza de problemas planteados de matemáticas, revolucionando la forma en que los estudiantes participan y dominan esta materia. A diferencia de los métodos anteriores que a menudo dependían de extensas llamadas de modelos y herramientas externas para la validación, Orca-Math destaca por su solución optimizada y eficiente.

La columna vertebral de la metodología de Orca-Math es un conjunto de datos sintéticos elaborados que comprende 200.000 problemas matemáticos. La verdadera genialidad de Orca-Math, sin embargo, reside en su proceso de aprendizaje iterativo. A medida que el modelo navega por este conjunto de datos, intenta resolver problemas y recibe comentarios detallados sobre sus esfuerzos. Este circuito de retroalimentación se enriquece con pares de preferencias que yuxtaponen las soluciones del modelo con la retroalimentación de expertos, fomentando un entorno de aprendizaje donde el modelo refina continuamente su perspicacia para la resolución de problemas.

Este mecanismo de aprendizaje iterativo es fundamental para el éxito de Orca-Math. Inicialmente, cuando se entrenó únicamente con ajuste fino supervisado (SFT) en el conjunto de datos sintéticos, Orca-Math demostró una capacidad impresionante, logrando una tasa de precisión del 81,50 % en el punto de referencia GSM8K. Sin embargo, la incorporación del aprendizaje iterativo de preferencias impulsó a Orca-Math a nuevas alturas, permitiéndole alcanzar una precisión del 86,81 % en el mismo punto de referencia. Estas cifras representan un importante paso adelante en la utilización de MST para abordar los desafíos educativos. Los logros de Orca-Math son particularmente notables dado el tamaño del modelo y la eficiencia con la que opera, superando a modelos significativamente más grandes y estableciendo nuevos puntos de referencia en el dominio.

Orca-Math de Microsoft Research no sólo supera a los grandes modelos existentes en rendimiento, sino que lo hace con una eficiencia notable, utilizando conjuntos de datos más pequeños. Esta hazaña subraya el potencial de los SLM cuando cuentan con la metodología y los recursos adecuados. El desempeño de Orca-Math en el punto de referencia GSM8K es un testimonio de la eficacia del enfoque desarrollado, destacando la capacidad del modelo para resolver problemas matemáticos que durante mucho tiempo han sido un desafío para las máquinas. Este esfuerzo también muestra el poder transformador de los SLM cuando se aprovechan con técnicas innovadoras como la generación de datos sintéticos y el aprendizaje iterativo.

En conclusión, Orca-Math representa un enfoque innovador para el aprendizaje que combina los ámbitos de la inteligencia artificial y la educación para abordar el desafío perenne de enseñar habilidades de resolución de problemas complejos. Al aprovechar las capacidades de los SLM a través de conjuntos de datos sintéticos y retroalimentación iterativa, Orca-Math allana el camino para una nueva era en herramientas educativas, ofreciendo una visión de un futuro en el que la tecnología y el aprendizaje caminan de la mano para desbloquear todo el potencial de los estudiantes en todo el mundo. globo.


Revisar la Papel y Blog. Todo el crédito por esta investigación va a los investigadores de este proyecto. Además, no olvides seguirnos en Gorjeo y noticias de Google. Unirse nuestro SubReddit de 38k+ ML, 41k+ comunidad de Facebook, Canal de discordiay LinkedIn Grarriba.

Si te gusta nuestro trabajo, te encantará nuestro Boletin informativo..

No olvides unirte a nuestro Canal de telegramas

También te puede gustar nuestro Cursos GRATUITOS de IA….


Muhammad Athar Ganaie, pasante de consultoría en MarktechPost, es un defensor del aprendizaje profundo eficiente, con especial atención en la capacitación dispersa. Cursando un M.Sc. en Ingeniería Eléctrica, con especialización en Ingeniería de Software, combina conocimientos técnicos avanzados con aplicaciones prácticas. Su esfuerzo actual es su tesis sobre “Mejora de la eficiencia en el aprendizaje por refuerzo profundo”, que muestra su compromiso de mejorar las capacidades de la IA. El trabajo de Athar se encuentra en la intersección “Capacitación escasa en DNN” y “Aprendizaje por refuerzo profundo”.