Los modelos de lenguaje grande (LLM) han mostrado mejoras significativas cuando se entrenan explícitamente en trazas de razonamiento estructuradas, lo que les permite resolver ecuaciones matemáticas, inferir conclusiones lógicas y navegar en tareas de planificación de varios pasos. Sin embargo, los recursos computacionales necesarios para procesar estas largas trazas de razonamiento son sustanciales. Los investigadores continúan explorando formas de mejorar la eficiencia mientras mantienen la efectividad de estos modelos.

Uno de los principales desafíos en el razonamiento de LLM es el alto costo computacional asociado con la capacitación e inferencia. Cuando los modelos procesan el razonamiento paso a paso en el lenguaje natural, gran parte del texto se usa para mantener la coherencia en lugar de contribuir al razonamiento. Esto conduce a un uso ineficiente de la memoria y un mayor tiempo de procesamiento. Los métodos actuales buscan mitigar este problema abstraiendo los pasos de razonamiento en representaciones comprimidas sin perder información crítica. A pesar de estos esfuerzos, los modelos que intentan internalizar los rastros de razonamiento a través del espacio latente continuo o la capacitación en varias etapas a menudo funcionan peor que los entrenados con detalles de razonamiento completos.

Las soluciones existentes tienen como objetivo reducir la redundancia en las trazas de razonamiento al comprimir los pasos intermedios. Algunos enfoques utilizan representaciones latentes continuas, mientras que otros implican reducciones iterativas de secuencias de razonamiento. Sin embargo, estos métodos requieren procedimientos de capacitación complejos y no pueden mantener el rendimiento comparable al razonamiento textual explícito. Los investigadores han buscado un enfoque alternativo que reduzca las demandas computacionales al tiempo que preservan las capacidades de razonamiento. Para abordar esto, han introducido un método que reemplaza partes del proceso de razonamiento con tokens discretos latentes, logrando una eficiencia mejorada sin sacrificar la precisión.

Un equipo de investigación de Meta AI y UC Berkeley propuso una técnica novedosa que integra tokens latentes discretos en el razonamiento de LLM. Emplean un autoencoder variacional (VQ-VAE) con vectores para convertir una porción del proceso de razonamiento paso a paso en representaciones compactas. El método implica reemplazar los primeros pasos de razonamiento con abstracciones latentes mientras se conserva los pasos posteriores en forma textual. Esta representación híbrida garantiza que el modelo mantenga la interpretabilidad al tiempo que reduce la longitud del token de las secuencias de razonamiento. La innovación clave es la mezcla aleatoria de tokens latentes y de texto, lo que permite que el modelo se adapte a la perfección a las nuevas estructuras de razonamiento sin una reentrenamiento extenso.

Los investigadores desarrollaron una estrategia de capacitación que incorporó tokens latentes en las trazas de razonamiento de LLM. Durante la capacitación, un número controlado de pasos de razonamiento se reemplaza con sus representaciones latentes correspondientes, asegurando que el modelo aprenda a interpretar estructuras de razonamiento abstractas y explícitas. La aleatorización de los reemplazos de token latente permite la adaptabilidad en diferentes tipos de problemas, mejorando la capacidad de generalización del modelo. Limitar el número de pasos de razonamiento textual reduce el tamaño de la entrada, lo que hace que las LLM sean más eficientes computacionalmente mientras se mantiene el rendimiento del razonamiento. Además, los investigadores aseguraron que el vocabulario extendido, incluidos los tokens latentes recién introducidos, pudiera integrarse sin problemas en el modelo sin requerir modificaciones importantes.

El método propuesto demostró mejoras de rendimiento significativas en varios puntos de referencia. El enfoque superó a los modelos tradicionales de cadena de pensamiento (COT) cuando se aplicó a tareas de razonamiento matemático. En el conjunto de datos de matemáticas, logró una mejora del 4.2% sobre los métodos de mejor rendimiento anteriores. En el punto de referencia GSM8K, el enfoque arrojó una ganancia del 4.1%, mientras que en el conjunto de datos Fresh-Gaokao-Math-2023, superó a los modelos existentes en un 13.3%. La reducción en la longitud de traza de razonamiento fue igualmente notable, con una disminución promedio del 17%, lo que resultó en tiempos de inferencia más rápidos y un menor consumo de memoria. Las evaluaciones en conjuntos de datos de razonamiento lógico como Prontoqa y Prosqa validaron aún más la efectividad del enfoque, con mejoras de precisión de 1.2% y 18.7%, respectivamente. El modelo logró una precisión del 100% en tareas de razonamiento más simples, lo que demuestra su capacidad para una deducción lógica eficiente.

La introducción de tokens latentes ha proporcionado un paso significativo para optimizar el razonamiento de LLM sin comprometer la precisión. Al reducir la dependencia de las secuencias de razonamiento de texto completo y aprovechar representaciones latentes discretas, los investigadores han desarrollado un enfoque que mantiene la eficiencia al tiempo que mejora la generalización del modelo. La estructura híbrida asegura que se conserven componentes de razonamiento esencial, ofreciendo una solución práctica al desafío de equilibrar la interpretabilidad y la eficiencia computacional. A medida que los LLM continúan evolucionando, tales métodos pueden allanar el camino para sistemas de inteligencia artificial más eficientes en recursos que retienen altos niveles de capacidad de razonamiento.


Verificar el Detalle técnico. Todo el crédito por esta investigación va a los investigadores de este proyecto. Además, siéntete libre de seguirnos Gorjeo Y no olvides unirte a nuestro Subreddit de 80k+ ml.


Nikhil es consultor interno en MarktechPost. Está buscando un doble grado integrado en materiales en el Instituto Indio de Tecnología, Kharagpur. Nikhil es un entusiasta de AI/ML que siempre está investigando aplicaciones en campos como biomateriales y ciencias biomédicas. Con una sólida experiencia en la ciencia material, está explorando nuevos avances y creando oportunidades para contribuir.

Por automata