Mistral AI lanza agentes remotos en Vibe y Mistral Medium 3.5 con una puntuación verificada por SWE-Bench del 77,6%

Mistral AI ha estado construyendo silenciosamente uno de los ecosistemas de agentes de codificación más prácticos en el espacio de IA de código abierto/pesos, y están enviando su actualización de infraestructura más significativa hasta el momento. El equipo de Mistral anunció agentes remotos en Vibe, su plataforma de agentes de codificación, junto con la vista previa pública de Mistral Medium 3.5, un nuevo modelo denso de 128 B que ahora sirve como modelo predeterminado tanto en Vibe como en Le Chat, el asistente del consumidor de Mistral.

¿Qué es Vibe y por qué es importante?

Si aún no lo ha usado, Mistral Vibe es un agente de codificación al que se puede acceder a través de una CLI (interfaz de línea de comandos) que permite que un modelo de IA funcione mediante tareas de software en su nombre: escribir código, refactorizar módulos, generar pruebas, investigar fallas de CI y más. Piense en ello como un desarrollador junior que nunca se cansa y puede operar en todo su código base.

Hasta ahora, las sesiones de Vibe se ejecutaban localmente, lo que significaba que el agente estaba vinculado a su computadora portátil y a su terminal. Eso cambia hoy.

Agentes remotos: el agente se ejecuta mientras usted se aleja

Básicamente, ahora las sesiones de codificación pueden funcionar en tareas largas mientras estás fuera. Muchos pueden ejecutarse en paralelo y usted deja de ser el cuello de botella en cada paso que da el agente.

Éste es el cambio de comportamiento clave. En lugar de cuidar una sesión de codificación en su terminal, inicia una tarea y deja que la nube se encargue del resto. Puede iniciar agentes en la nube desde la CLI de Mistral Vibe o desde Le Chat. Mientras se ejecutan, puede inspeccionar lo que está haciendo el agente, con diferencias de archivos, llamadas a herramientas, estados de progreso y preguntas que surgen a medida que avanza.

Una característica particularmente útil para los desarrolladores que ya están en mitad de la sesión: las sesiones CLI locales en curso se pueden teletransportar a la nube cuando desee dejarlas en ejecución, con el historial de la sesión, el estado de las tareas y las aprobaciones. Para que no pierda su lugar, simplemente retire el trabajo de su máquina.

Cada sesión se ejecuta de forma aislada. Cada sesión de codificación se ejecuta en una zona de pruebas aislada, incluidas amplias ediciones e instalaciones. Cuando finaliza el trabajo, el agente puede abrir una solicitud de extracción en GitHub y notificarle, para que usted revise el resultado en lugar de cada pulsación de tecla que lo produjo.

También vale la pena comprender la lógica detrás de cómo Vibe se conecta a Le Chat. Mistral utiliza flujos de trabajo orquestados en Mistral Studio para incorporar Mistral Vibe a Le Chat, creado originalmente para su propio entorno de codificación interno, luego para clientes empresariales y ahora abierto a todos. Esto significa que el agente de codificación remota en Le Chat no es una característica independiente: está construido sobre la propia capa de orquestación de Mistral, lo cual es un contexto útil si está pensando en cómo diseñar sistemas de agencia similares usted mismo.

En cuanto a la integración, Vibe se conecta a GitHub para código y solicitudes de extracción, Linear y Jira para problemas, Sentry para incidentes y aplicaciones como Slack o Teams para informes.

Mistral Medium 3.5: El modelo detrás de todo

Nada de esto sería prácticamente posible sin un modelo de IA subyacente capaz. Este nuevo modelo lanzado es Mistral Medium 3.5, que el equipo de Mistral describe como su primer modelo fusionado insignia.

Es un modelo denso 128B con una ventana de contexto de 256k, que maneja el seguimiento de instrucciones, el razonamiento y la codificación en un solo conjunto de pesos. En cuanto al contexto, una ventana de contexto de 256k significa que el modelo puede procesar aproximadamente 200.000 palabras en una sola pasada, tiempo suficiente para razonar en toda una base de código grande.

El modelo también es multimodal. El equipo de Mistral entrenó el codificador de visión desde cero para manejar tamaños de imagen y relaciones de aspecto variables, una elección arquitectónica notable. La mayoría de los modelos de lenguaje de visión reutilizan codificadores previamente entrenados como CLIP, por lo que construir este componente desde cero sugiere que Mistral priorizó la flexibilidad en cómo el modelo maneja las entradas de imágenes del mundo real en lugar de adoptar por defecto suposiciones de resolución fija.

Mistral Medium 3.5 obtiene una puntuación del 77,6% en SWE-Bench Verified, por delante de Devstral 2 y modelos como Qwen3.5 397B A17B. SWE-Bench Verified es un punto de referencia estándar que prueba si un modelo puede resolver problemas de GitHub del mundo real desde repositorios populares de código abierto; es uno de los servidores proxy más confiables para la capacidad práctica de ingeniería de software. El modelo también obtiene una puntuación de 91,4 en τ³-Telecom y tiene fuertes capacidades agentes.

https://mistral.ai/news/vibe-remote-agents-mistral-medium-3-5

Una opción de diseño particularmente interesante: el esfuerzo de razonamiento ahora se puede configurar por solicitud, por lo que el mismo modelo puede responder una respuesta rápida de chat o trabajar en una ejecución de agencia compleja. Esto es importante para los desarrolladores que integran el modelo a través de API: puede reducir la computación para búsquedas simples y aumentarla para tareas de razonamiento de varios pasos, sin cambiar de modelo.

El modelo se creó para tareas a largo plazo, llamando a múltiples herramientas de manera confiable y produciendo resultados estructurados que el código posterior puede consumir.

Modo de trabajo en Le Chat: una nueva capa agente

Más allá de las actualizaciones del agente de codificación, Mistral también incluye el modo Trabajo en Le Chat, un nuevo modo agente para tareas más generales de varios pasos. El modo de trabajo es un nuevo y poderoso modo agente para tareas complejas en Le Chat, impulsado por un nuevo arnés y Mistral Medium 3.5. El agente se convierte en el backend de ejecución del propio asistente, por lo que Le Chat puede leer y escribir, utilizar varias herramientas a la vez y trabajar en proyectos de varios pasos hasta completar lo que usted ha pedido.

En la práctica, esto significa cosas como flujos de trabajo entre herramientas: ponerse al día en el correo electrónico, los mensajes y el calendario; prepararse para una reunión con un contexto relevante extraído de múltiples fuentes; o clasificar una bandeja de entrada y crear problemas de Jira a partir de discusiones en equipo.

En el modo Trabajo, los conectores están activados de forma predeterminada en lugar de elegirse manualmente, lo que permite al agente acceder a documentos, buzones de correo, calendarios y otros sistemas para obtener el rico contexto que necesita para tomar las medidas correctas. Este es un cambio significativo en la usabilidad con respecto a los asistentes de chat típicos, donde se seleccionan herramientas manualmente antes de cada sesión.

La transparencia es una característica incorporada más que una idea de último momento: cada acción que realiza el agente es visible: se ve cada llamada a la herramienta y la lógica del pensamiento. Le Chat solicitará aprobación explícita, según sus permisos, antes de continuar con tareas delicadas como enviar un mensaje, escribir un documento o modificar datos.

Conclusiones clave

Estas son las conclusiones clave:

Mistral Medium 3.5 es ahora el modelo predeterminado tanto en Vibe como en Le Chat: un modelo denso de 128B con una ventana de contexto de 256k que obtiene una puntuación del 77,6% en SWE-Bench Verified, supera a Devstral 2 y Qwen3.5 397B A17B, y está disponible como pesos abiertos en Hugging Face. Los agentes de codificación de Vibe ahora se ejecutan en la nube: las sesiones se pueden generar desde CLI o Le Chat, ejecutarse de forma asincrónica en entornos aislados y las sesiones locales se pueden teletransportar a la nube sin perder el historial de sesiones o el estado de las tareas. El nuevo modo de trabajo de Le Chat ofrece ejecución paralela de tareas agentic de varios pasos: impulsado por Mistral Medium 3.5, puede funcionar en correo electrónico, calendario, documentos, Jira y Slack simultáneamente, con todas las llamadas de herramientas y pasos de razonamiento visibles y se requiere aprobación explícita antes de acciones sensibles. El esfuerzo de razonamiento en Mistral Medium 3.5 se puede configurar por solicitud de API: el mismo modelo maneja respuestas de chat livianas y ejecuciones agentes complejas a largo plazo.

Consulte los pesos del modelo en HF y detalles técnicos. Además, no dude en seguirnos en Twitter y no olvide unirse a nuestro SubReddit de más de 130.000 ML y suscribirse a nuestro boletín. ¡Esperar! estas en telegrama? Ahora también puedes unirte a nosotros en Telegram.

¿Necesita asociarse con nosotros para promocionar su repositorio de GitHub O su página principal de Hugging O su lanzamiento de producto O seminario web, etc.? Conéctate con nosotros