La inteligencia artificial ha hecho avances significativos, pero el desarrollo de modelos capaces de razonamiento matizado sigue siendo un desafío. Muchos modelos existentes luchan con tareas complejas de resolución de problemas, particularmente en matemáticas, codificación y razonamiento científico. Estas dificultades a menudo surgen debido a las limitaciones en la calidad de los datos, la arquitectura del modelo y la escalabilidad de los procesos de capacitación. La necesidad de modelos de razonamiento de datos abiertos que funcionen a un nivel alto es cada vez más importante, especialmente a medida que los modelos propietarios continúan liderando el campo.
Openthinker-32B es un modelo de razonamiento de datos abiertos desarrollado por el equipo de pensamientos abiertos para abordar estos desafíos. Ajustado del instructo QWEN2.5-32B utilizando el conjunto de datos OpentHoughts-114K, el modelo demuestra un fuerte rendimiento en una gama de tareas de razonamiento, incluidas las de las matemáticas, la codificación y la investigación científica.
Desde una perspectiva técnica, OpentHinker-32B presenta 32.8 mil millones de parámetros y admite una longitud de contexto de 16,000 tokens, lo que le permite procesar tareas complejas que requieren un contexto extendido. El modelo fue capacitado en tres épocas utilizando el marco de fama de LLAMA, empleando una tasa de aprendizaje de 1E-5 con un programador de tasas de aprendizaje de coseno. El entrenamiento se realizó en AWS Sagemaker en cuatro nodos, cada uno equipado con ocho GPU H100, durante aproximadamente 90 horas. Esta configuración de capacitación mejora la capacidad del modelo para gestionar los intrincados procesos de razonamiento de manera eficiente.
Las evaluaciones de rendimiento muestran que OpentHinker-32b supera a otros modelos de razonamiento de datos abiertos en múltiples puntos de referencia. Logra una precisión de 90.6 en el punto de referencia Math500 y una puntuación de 61.6 en el punto de referencia GPQA-Diamond, lo que indica fuertes capacidades generales de resolución de problemas. Estos resultados reflejan la capacidad del modelo para manejar un conjunto diverso de desafíos de razonamiento de manera efectiva.
En resumen, OpentHinker-32B presenta una contribución completa al campo de los modelos de razonamiento de IA. Al utilizar un conjunto de datos cuidadosamente curado y un riguroso proceso de capacitación, aborda muchas de las limitaciones de los modelos anteriores. Su fuerte desempeño de referencia sugiere que es una herramienta valiosa para investigadores y profesionales que trabajan en inteligencia artificial. Como modelo de código abierto, OpentHinker-32B fomenta una mayor exploración e innovación en los sistemas de IA basados en el razonamiento.
Verificar el Modelo en la cara abrazada y Detalle técnico. Todo el crédito por esta investigación va a los investigadores de este proyecto. Además, siéntete libre de seguirnos Gorjeo Y no olvides unirte a nuestro 75k+ ml de subreddit.
Sana Hassan, una pasante de consultoría en MarktechPost y estudiante de doble grado en IIT Madras, le apasiona aplicar tecnología e IA para abordar los desafíos del mundo real. Con un gran interés en resolver problemas prácticos, aporta una nueva perspectiva a la intersección de la IA y las soluciones de la vida real.