Alibaba AI presenta una vista previa de QWEN3-Max: un modelo QWEN de billones de parámetros con velocidad y calidad súper rápidas

El equipo qwen de Alibaba presentó QWEN3-MAX-Preview (instrucciones)un nuevo modelo de idioma grande insignia con Más de un billón de parámetros—El más grande hasta la fecha. Es accesible a través de Qwen Chat, Alibaba Cloud API, OpenRouter y, como predeterminado, en Hacer la herramienta Cycoder de Hugging Face.

¿Cómo encaja en el paisaje LLM de hoy?

Este hito llega en un momento en que la industria está en tendencia hacia modelos más pequeños y más eficientes. La decisión de Alibaba de avanzar en la escala marca una elección estratégica deliberada, destacando tanto sus capacidades técnicas como el compromiso con la investigación de billones de parámetros.

¿Qué tan grande es Qwen3-Max y cuáles son sus límites de contexto?

  • Parámetros:> 1 billón.
  • Ventana de contexto: Hasta 262,144 fichas (258,048 entrada, 32,768 salida).
  • Característica de eficiencia: Incluye contexto almacenamiento en caché Para acelerar las sesiones de múltiples vueltas.

¿Cómo se desempeña Qwen3-Max contra otros modelos?

Los puntos de referencia muestran que supera QWEN3-235B-A22B-2507 y compite fuertemente con Claude Opus 4, Kimi K2 y Deepseek-V3.1 a través de SuperGPQA, AIME25, LivecodeBench V6, Arena-Hard V2 y LiveBench.

¿Cuál es la estructura de precios para el uso?

Alibaba Cloud aplica precios de token escalonados:

  • 0–32k tokens: Entrada de $ 0.861/millones, $ 3.441/millones de salida
  • 32k – 128k: Entrada de $ 1.434/millones, $ 5.735/millones de salida
  • 128K – 252K: Entrada de $ 2.151/millones, $ 8.602/millones de salida

Este modelo es rentable para tareas más pequeñas, pero se reduce significativamente en el precio de las cargas de trabajo de contexto largo.

¿Cómo impacta el enfoque de código cerrado?

A diferencia de los lanzamientos de QWen anteriores, este modelo es No de peso abierto. El acceso está restringido a API y plataformas de socios. Esta elección destaca el enfoque de comercialización de Alibaba, pero puede ralentizar la adopción más amplia en investigaciones y comunidades de código abierto

Control de llave

  • Primer modelo QWEN de billones de parámetros -QWEN3-MAX supera los parámetros 1T, lo que lo convierte en la LLM más grande y avanzada de Alibaba hasta la fecha.
  • Manejo de contexto ultra largo – apoya 262k tokens con almacenamiento en caché, habilitando el procesamiento extendido de documentos y sesiones más allá de la mayoría de los modelos comerciales.
  • Rendimiento de referencia competitivo -Superenta QWEN3-235B y compite con Claude Opus 4, Kimi K2 y Deepseek-V3.1 sobre razonamiento, codificación y tareas generales.
  • Razonamiento emergente a pesar del diseño – Aunque no se comercializa como un modelo de razonamiento, los resultados tempranos muestran capacidades de razonamiento estructurado en tareas complejas.
  • Modelo de precios de código cerrado -Disponible a través de API con precios basados ​​en token; Económico para tareas pequeñas pero costosas en un mayor uso de contexto, lo que limita la accesibilidad.

Resumen

QWEN3-MAX-Preview Establece un nuevo punto de referencia de escala en LLMS comerciales. Su diseño de billones de parámetros, longitud de contexto de 262k y resultados de referencia fuertes destacan la profundidad técnica de Alibaba. Sin embargo, el lanzamiento de código cerrado y los precios escalonados del modelo crean una pregunta para una accesibilidad más amplia.


Mira el Chat de qwen y API de la nube de Alibaba. No dude en ver nuestro Página de Github para tutoriales, códigos y cuadernos. Además, siéntete libre de seguirnos Gorjeo Y no olvides unirte a nuestro Subreddit de 100k+ ml y suscribirse a Nuestro boletín.


Michal Sutter es un profesional de la ciencia de datos con una Maestría en Ciencias en Ciencias de Datos de la Universidad de Padova. Con una base sólida en análisis estadístico, aprendizaje automático e ingeniería de datos, Michal se destaca por transformar conjuntos de datos complejos en ideas procesables.