Mistral Ai ha introducido oficialmente Magistralsu última serie de modelos de idiomas grandes (LLM) optimizados por el razonamiento. Esto marca un paso adelante significativo en la evolución de las capacidades LLM. La serie magistral incluye Magistral pequeñoun parámetro 24b Modelo de código abierto bajo la licencia Permisive Apache 2.0. Además, incluye Medio magistraluna variante patentada de nivel empresarial. Con este lanzamiento, Mistral fortalece su posición en el panorama global de IA al atacar el razonamiento de tiempo de inferencia, una frontera cada vez más crítica en el diseño de LLM.
Características clave del magistral: un cambio hacia el razonamiento estructurado
1. Supervisión de la cadena de pensamiento
Ambos modelos están ajustados con el razonamiento de la cadena de pensamiento (COT). Esta técnica permite la generación paso a paso de inferencias intermedias. Facilita la precisión mejorada, la interpretabilidad y la robustez. Esto es especialmente importante en las tareas de razonamiento de múltiples saltos comunes en matemáticas, análisis legal y resolución de problemas científicos.
2. Soporte de razonamiento multilingüe
Magistral Small apoya nativamente múltiples idiomas, incluidos franceses, españoles, árabes y chinos simplificados. Esta capacidad multilingüe amplía su aplicabilidad en contextos globales, ofreciendo un rendimiento de razonamiento más allá de las capacidades centradas en inglés de muchos modelos competidores.
3. Despliegue abierto frente a patentado
- Magistral pequeño (24B, Apache 2.0) está disponible públicamente a través de la cara abrazada. Está diseñado para la investigación, la personalización y el uso comercial sin restricciones de licencia.
- Medio magistralaunque no de código abierto, está optimizado para la implementación en tiempo real a través de los servicios de Cloud and API de Mistral. Este modelo ofrece un mejor rendimiento y escalabilidad.
4. Resultados de referencia
Informe de evaluaciones internas 73.6% precisión para Medio magistral en AIME2024, con una precisión aumentada al 90% a través de la mayoría de la votación. Magistral pequeño logra el 70.7%, aumentando a 83.3% bajo configuraciones de conjunto similares. Estos resultados colocan la serie magistral de manera competitiva junto con modelos fronterizos contemporáneos.
5. Rendimiento y latencia
Con velocidades de inferencia que alcanzan 1,000 tokens por segundo, Medio magistral Ofrece alto rendimiento. Está optimizado para entornos de producción sensibles a la latencia. Estas ganancias de rendimiento se atribuyen a las tuberías de aprendizaje de refuerzo personalizado y las estrategias de decodificación eficientes.
Arquitectura modelo
La documentación técnica acompañante de Mistral destaca el desarrollo de una tubería de ajuste de aprendizaje de refuerzo a medida (RL). En lugar de aprovechar las plantillas RLHF existentes, los ingenieros Mistral diseñaron un marco interno optimizado para hacer cumplir las trazas de razonamiento coherentes y de alta calidad.
Además, los modelos cuentan con mecanismos que guían explícitamente la generación de pasos de razonamiento, se endurecieron “alineación del lenguaje de razonamiento”. Esto garantiza la consistencia entre salidas complejas. La arquitectura mantiene la compatibilidad con el ajuste de las instrucciones, la comprensión del código y las primitivas de llamada de funciones de la familia del modelo base de Mistral.
Implicaciones de la industria y trayectoria futura
Adopción empresarial: Con capacidades de razonamiento mejoradas y soporte multilingüe, Magistral está bien posicionado para la implementación en industrias reguladas. Estas industrias incluyen atención médica, finanzas y tecnología legal, donde la precisión, la explicabilidad y la trazabilidad son misioneros.
Eficiencia del modelo: Al centrarse en el razonamiento de tiempo de inferencia en lugar de la escala de fuerza bruta, Mistral aborda la creciente demanda de modelos eficientes. Estos modelos eficientes y capaces no requieren recursos de cómputo exorbitantes.
Diferenciación estratégica: La estrategia de lanzamiento de dos niveles, abierta y patentada, permite a Mistral servir tanto a la comunidad de código abierto como al mercado empresarial simultáneamente. Esta estrategia refleja las que se ven en plataformas de software fundamentales.
Los puntos de referencia abiertos esperan: Si bien las métricas de rendimiento iniciales se basan en conjuntos de datos internos, la evaluación comparativa pública será crítica. Plataformas como MMLU, GSM8K y Big Bench-Hard ayudarán a determinar la competitividad más amplia de la serie.
Conclusión
La serie magistral ejemplifica un pivote deliberado desde la supremacía a escala de parámetros hasta el razonamiento optimizado de inferencia. Con rigor técnico, alcance multilingüe y un fuerte espíritu de código abierto, los modelos magistrales de Mistral AI representan un punto de inflexión crítico en el desarrollo de LLM. A medida que el razonamiento surge como un diferenciador clave en las aplicaciones de IA, Magistral ofrece una alternativa oportuna y de alto rendimiento. Está arraigado en la transparencia, la eficiencia y el liderazgo europeo de IA.
Mira el Magistral en Cara abrazada Y puedes probar un Vista previa de la versión del medio magistral en LE Chat o a través de API ON La PlateForme. Todo el crédito por esta investigación va a los investigadores de este proyecto. Además, siéntete libre de seguirnos Gorjeo Y no olvides unirte a nuestro 99k+ ml de subreddit y suscribirse a Nuestro boletín.
▶ ¿Busca mostrar su producto, seminario web o servicio a más de 1 millón de ingenieros de IA, desarrolladores, científicos de datos, arquitectos, CTO y CIO? Explore una asociación estratégica
Asif Razzaq es el CEO de MarktechPost Media Inc .. Como empresario e ingeniero visionario, ASIF se compromete a aprovechar el potencial de la inteligencia artificial para el bien social. Su esfuerzo más reciente es el lanzamiento de una plataforma de medios de inteligencia artificial, MarktechPost, que se destaca por su cobertura profunda de noticias de aprendizaje automático y de aprendizaje profundo que es técnicamente sólido y fácilmente comprensible por una audiencia amplia. La plataforma cuenta con más de 2 millones de vistas mensuales, ilustrando su popularidad entre el público.