El equipo de IA de IBM lanza la serie Granite 4.0 Nano: modelos pequeños compactos y de código abierto creados para la IA en el borde

Los modelos pequeños a menudo se ven bloqueados por un ajuste deficiente de las instrucciones, formatos de uso de herramientas débiles y falta de gobernanza. El equipo de IA de IBM lanzó Granite 4.0 Nano, una pequeña familia de modelos que apunta a la inferencia local y de borde con controles empresariales y licencias abiertas. La familia incluye 8 modelos en dos tamaños, 350M y aproximadamente 1B, con variantes híbridas SSM y transformadoras, cada una en base e instrucción. Los modelos de la serie Granite 4.0 Nano se lanzan bajo una licencia Apache 2.0 con soporte de arquitectura nativa en tiempos de ejecución populares como vLLM, llama.cpp y MLX.

https://huggingface.co/blog/ibm-granite/granite-4-nano

¿Qué hay de nuevo en la serie Granite 4.0 Nano?

Granite 4.0 Nano consta de cuatro líneas de modelos y sus homólogos básicos. Granite 4.0 H 1B utiliza una arquitectura híbrida basada en SSM y tiene aproximadamente 1,5 mil millones de parámetros. Granite 4.0 H 350M utiliza el mismo enfoque híbrido en 350M. Para una máxima portabilidad en tiempo de ejecución, IBM también proporciona Granite 4.0 1B y Granite 4.0 350M como versiones transformadoras.

Lanzamiento de Granite Tamaños en lanzamiento Arquitectura Licencia y gobernanza Notas clave Granite 13B, primeros modelos watsonx Granite Base 13B, instrucción 13B, posterior chat 13B Transformador solo decodificador, contexto 8K Términos empresariales de IBM, protecciones del cliente Primeros modelos públicos de Granite para watsonx, datos empresariales seleccionados, enfoque en inglés Modelos de código de Granite (abierto) Código 3B, 8B, 20B, 34B, base y Transformador solo instructDecoder, entrenamiento de código de 2 etapas en 116 idiomas Apache 2.0 Primera línea Granite completamente abierta, para inteligencia de código, documento 2405.04324, disponible en HF y GitHub Modelos de lenguaje Granite 3.0 2B y 8B, base e instructTransformer, contexto de 128 K para instructApache 2.0 Business LLM para RAG, uso de herramientas, resumen, enviado en watsonx y HFGranite 3.1 Language Models (HF) 1B A400M, 3B A800M, 2B, 8BTransformer, 128K contextApache 2.0Escalera de tamaño para tareas empresariales, tanto base como de instrucción, misma receta de datos de GraniteGranite 3.2 Language Models (HF) 2B instruct, 8B instructTransformer, 128K, mejor largo rápidoApache 2.0 Aumento de calidad iterativo en 3.x, mantiene la alineación empresarialGranite 3.3 Modelos de lenguaje (HF) base 2B, instrucción 2B, base 8B, instrucción 8B, todos los decodificadores de 128 K solo transformadorApache 2.0La última línea 3.x en HF antes de 4.0, agrega FIM y mejores instrucciones siguiendo los modelos de lenguaje Granite 4.0 3B micro, 3B H micro, 7B H pequeño, 32B H pequeño, más variantes de transformadorHybrid Mamba 2 plus transformador para H, transformador puro para compatibilidadApache 2.0, ISO 42001, firmado criptográficamenteInicio de generación híbrida, menor memoria, compatible con agentes, misma gobernanza en todos los tamañosGranite 4.0 Nano Language Models 1B H, instrucción 1B H, instrucción 350M H, 350M H, transformador 2B, transformador 2B instrucción, transformador 0.4B, instrucción de transformador 0.4B, los modelos 8H en total son híbridos SSM más transformador, los no H son transformadores puros Apache 2.0, ISO 42001, firmado, misma canalización 4.0 Los modelos Granite más pequeños, hechos para Edge, local y navegador, se ejecutan en vLLM, llama.cpp, MLX, watsonx
Tabla creada por Marktechpost.com

Arquitectura y formación

Las variantes H intercalan capas SSM con capas de transformador. Este diseño híbrido reduce el crecimiento de la memoria frente a la atención pura, al tiempo que preserva la generalidad de los bloques transformadores. Los modelos Nano no utilizaron un canal de datos reducido. Fueron capacitados con la misma metodología Granite 4.0 y más de 15T tokens, luego se ajustaron las instrucciones para brindar un uso sólido de las herramientas y un seguimiento de las instrucciones. Esto traslada las fortalezas de los modelos Granite 4.0 más grandes a escalas sub 2B.

Benchmarks y contexto competitivo

IBM compara Granite 4.0 Nano con otros modelos inferiores a 2B, incluidos Qwen, Gemma y LiquidAI LFM. Los agregados informados muestran un aumento significativo en las capacidades en conocimientos generales, matemáticas, código y seguridad con presupuestos de parámetros similares. En las tareas de los agentes, los modelos superan a varios pares en IFEval y en Berkeley Function Calling Leaderboard v3.

https://huggingface.co/blog/ibm-granite/granite-4-nano

Conclusiones clave

IBM lanzó 8 modelos Granite 4.0 Nano, 350M y alrededor de 1B cada uno, en variantes híbridas SSM y transformador, en base e instrucción, todos bajo Apache 2.0. Los modelos H híbridos, Granite 4.0 H 1B con aproximadamente 1.500 millones de parámetros y Granite 4.0 H 350M con aproximadamente 350 M, reutilizan la receta de entrenamiento de Granite 4.0 en más de 15 T tokens, por lo que la capacidad se hereda de la familia más grande y no de una rama de datos reducida. El equipo de IBM informa que Granite 4.0 Nano es competitivo con otros modelos sub 2B como Qwen, Gemma y LiquidAI LFM en general, matemáticas, código y seguridad, y que supera a IFEval y BFCLv3, que son importantes para los agentes que utilizan herramientas. Todos los modelos Granite 4.0, incluido Nano, están firmados criptográficamente, certificados ISO 42001 y lanzados para uso empresarial, lo que brinda procedencia y gobernanza que los modelos típicos de comunidades pequeñas no brindan. Los modelos están disponibles en Hugging Face e IBM watsonx.ai con soporte de tiempo de ejecución para vLLM, llama.cpp y MLX, lo que hace que las implementaciones a nivel local, de borde y de navegador sean realistas para los primeros ingenieros de IA y equipos de software.

IBM está haciendo lo correcto aquí: está tomando el mismo canal de capacitación de Granite 4.0, la misma escala de token de 15T, la misma arquitectura híbrida de transformador Mamba 2 plus, y reduciéndolo a 350 millones y aproximadamente 1 B para que las cargas de trabajo en el borde y en el dispositivo puedan utilizar la historia exacta de gobernanza y procedencia que ya tienen los modelos Granite más grandes. Los modelos son Apache 2.0, están alineados con ISO 42001, están firmados criptográficamente y ya se pueden ejecutar en vLLM, llama.cpp y MLX. En general, esta es una forma limpia y auditable de ejecutar pequeños LLM.

Consulte los pesos del modelo en HF y detalles técnicos. No dude en consultar nuestra página de GitHub para tutoriales, códigos y cuadernos. Además, no dude en seguirnos en Twitter y no olvide unirse a nuestro SubReddit de más de 100.000 ML y suscribirse a nuestro boletín. ¡Esperar! estas en telegrama? Ahora también puedes unirte a nosotros en Telegram.

Asif Razzaq es el director ejecutivo de Marktechpost Media Inc.. Como empresario e ingeniero visionario, Asif está comprometido a aprovechar el potencial de la inteligencia artificial para el bien social. Su esfuerzo más reciente es el lanzamiento de una plataforma de medios de inteligencia artificial, Marktechpost, que se destaca por su cobertura en profundidad del aprendizaje automático y las noticias sobre aprendizaje profundo que es técnicamente sólida y fácilmente comprensible para una amplia audiencia. La plataforma cuenta con más de 2 millones de visitas mensuales, lo que ilustra su popularidad entre el público.

🙌 Siga MARKTECHPOST: agréguenos como fuente preferida en Google.