El modelo NVIDIA Nemotron 3 Nano 30B MoE ya está disponible en Amazon SageMaker JumpStart

Hoy nos complace anunciar que el modelo NVIDIA Nemotron 3 Nano 30B con parámetros activos 3B ya está disponible de forma general en el catálogo de modelos JumpStart de Amazon SageMaker. Puede acelerar la innovación y ofrecer valor empresarial tangible con Nemotron 3 Nano en Amazon Web Services (AWS) sin tener que gestionar las complejidades de implementación del modelo. Puede potenciar sus aplicaciones de IA generativa con capacidades de Nemotron utilizando las capacidades de implementación administrada que ofrece SageMaker JumpStart.

Nemotron 3 Nano es un modelo híbrido de lenguaje pequeño de expertos (MoE) con la mayor eficiencia y precisión informática para que los desarrolladores impulsen tareas de agentes altamente calificados a escala. El modelo es completamente abierto con ponderaciones, conjuntos de datos y recetas abiertos, por lo que los desarrolladores pueden personalizar, optimizar e implementar sin problemas el modelo en su infraestructura para ayudar a cumplir con sus requisitos de privacidad y seguridad. Nemotron 3 Nano sobresale en codificación y razonamiento, y lidera puntos de referencia como SWE Bench Verified, GPQA Diamond, AIME 2025, Arena Hard v2 e IFBench.

Acerca de Nemotrón 3 Nano 30B

Nemotron 3 Nano se diferencia de otros modelos por su arquitectura y precisión, y cuenta con un sólido rendimiento en una variedad de habilidades altamente técnicas:

Arquitectura: ο MoE con arquitectura híbrida Transformer-Mambaο Admite presupuesto de tokens para proporcionar una precisión óptima con una generación mínima de tokens de razonamiento Precisión: líder en precisión en codificación, razonamiento científico, matemáticas e instrucción siguiendo puntos de referencia como LiveCodeBench, GPQA Diamond, AIME 2025, BFCL e IFBench (en comparación con otros modelos de lenguaje abierto menores de 30B) Usabilidad: modelo de parámetros 30B con 3 mil millones de parámetros activos Tiene una ventana de contexto de hasta 1 millón de tokens Modelo básico basado en texto, que utiliza texto tanto para entradas como para salidas

Requisitos previos

Para comenzar a utilizar Nemotron 3 Nano en Amazon SageMaker JumpStart, debe tener un dominio aprovisionado de Amazon SageMaker Studio.

Comience con NVIDIA Nemotron 3 Nano 30B en SageMaker JumpStart

Para probar el modelo Nemotron 3 Nano en SageMaker JumpStart, abra SageMaker Studio y elija Modelos en el panel de navegación. Busque NVIDIA en la barra de búsqueda y elija NVIDIA Nemotron 3 Nano 30B como modelo.

En la página de detalles del modelo, elija Implementar y siga las indicaciones para implementar el modelo.

Después de implementar el modelo en un punto final de SageMaker AI, puede probarlo. Puede acceder al modelo utilizando los siguientes ejemplos de código de AWS Command Line Interface (AWS CLI). Puede utilizar nvidia/nemotron-3-nano como ID del modelo.

cat > input.json << EOF { "modelo": "${MODEL_ID}", "mensajes": [ { "role": "system", "content": "You are a helpful assistant." }, { "role": "user", "content": "What is NVIDIA? Answer in 2-3 sentences." }]"max_tokens": 512, "temperature": 0.2, "stream": False, # Establecer en False para el modo sin transmisión, "chat_template_kwargs": {"enable_thinking": False} # Establecer en False para el modo sin razonamiento } EOF aws sagemaker-runtime invoke-endpoint \ --endpoint-name ${ENDPOINT_NAME} \ --region ${AWS_REGION} \ --content-type 'aplicación/json' \ --body fileb://input.json \ > respuesta.json

Alternativamente, puede acceder al modelo utilizando SageMaker SDK y el código Boto3. Los siguientes ejemplos de código Python muestran cómo enviar un mensaje de texto a NVIDIA Nemotron 3 Nano 30B utilizando SageMaker SDK. Para ver ejemplos de código adicionales, consulte el repositorio de NVIDIA GitHub.

runtime_client = boto3.client(‘sagemaker-runtime’, nombre_región=región) carga útil = { “mensajes”: [
{“role”: “user”, “content”: prompt}
]”max_tokens”: 1000 } prueba: respuesta = self.runtime_client.invoke_endpoint( EndpointName=self.endpoint_name, ContentType=”application/json”, Body=json.dumps(payload) ) respuesta_body = respuesta[‘Body’].read (). permisos de IAM con menos privilegios asignados.” )

Ahora disponible

NVIDIA Nemotron 3 Nano ahora está disponible completamente administrado en SageMaker JumpStart. Consulte el paquete modelo para conocer la disponibilidad de la región de AWS. Para obtener más información, consulte la página del modelo Nemotron Nano, el cuaderno de muestra de NVIDIA GitHub para Nemotron 3 Nano 30B y la página de precios de Amazon SageMaker JumpStart.

Pruebe el modelo Nemotron 3 Nano en Amazon SageMaker JumpStart hoy y envíe sus comentarios a AWS re:Post para SageMaker JumpStart o a través de sus contactos habituales de AWS Support.

Sobre los autores

Dan Ferguson es arquitecto de soluciones en AWS, con sede en Nueva York, EE. UU. Como experto en servicios de aprendizaje automático, Dan trabaja para ayudar a los clientes en su camino hacia la integración de flujos de trabajo de aprendizaje automático de manera eficiente, efectiva y sostenible.

Pooja Karadgi lidera asociaciones estratégicas y de productos para Amazon SageMaker JumpStart, el centro de aprendizaje automático e inteligencia artificial generativa dentro de SageMaker. Se dedica a acelerar la adopción de la IA por parte de los clientes simplificando el descubrimiento y la implementación del modelo básico, lo que permite a los clientes crear aplicaciones de IA generativa listas para producción a lo largo de todo el ciclo de vida del modelo, desde la incorporación y la personalización hasta la implementación.

Benjamin Crabtree es ingeniero de software senior en el equipo de inteligencia artificial de Amazon SageMaker y se especializa en brindar la experiencia de “última milla” a los clientes. Le apasiona democratizar los últimos avances en inteligencia artificial ofreciendo capacidades fáciles de usar. Además, Ben tiene mucha experiencia en la creación de infraestructura de aprendizaje automático a escala.

Timothy Ma es especialista principal en IA generativa en AWS, donde colabora con clientes para diseñar e implementar soluciones de aprendizaje automático de vanguardia. También lidera estrategias de comercialización de servicios de IA generativa, ayudando a las organizaciones a aprovechar el potencial de las tecnologías avanzadas de IA.

Abdullahi Olaoye es arquitecto senior de soluciones de IA en NVIDIA y se especializa en la integración de bibliotecas, marcos y productos de IA de NVIDIA con servicios de IA en la nube y herramientas de código abierto para optimizar la implementación, la inferencia y los flujos de trabajo de IA generativos del modelo de IA. Colabora con AWS para mejorar el rendimiento de las cargas de trabajo de IA e impulsar la adopción de soluciones de IA generativa e IA impulsadas por NVIDIA.

Nirmal Kumar Juluru es gerente de marketing de productos en NVIDIA que impulsa la adopción de software, modelos y API de IA en los modelos y terminales NVIDIA NGC Catalog y NVIDIA AI Foundation. Anteriormente trabajó como desarrollador de software. Nirmal tiene un MBA de la Universidad Carnegie Mellon y una licenciatura en informática de BITS Pilani.

Vivian Chen es arquitecta de soluciones de aprendizaje profundo en NVIDIA, donde ayuda a los equipos a cerrar la brecha entre la investigación compleja de IA y el rendimiento del mundo real. Vivian, especializada en optimización de inferencias y soluciones de inteligencia artificial integradas en la nube, se enfoca en convertir el trabajo pesado del aprendizaje automático en aplicaciones rápidas y escalables. Le apasiona ayudar a los clientes a navegar por la pila de computación acelerada de NVIDIA para garantizar que sus modelos no solo funcionen en el laboratorio, sino que también prosperen en la producción.