Los modelos de lenguajes grandes (LLM) demostraron impresionantes capacidades de aprendizaje en pocas oportunidades, adaptándose rápidamente a nuevas tareas con solo un puñado de ejemplos.
Sin embargo, a pesar de sus avances, los LLM todavía enfrentan limitaciones en el razonamiento complejo que involucra contextos caóticos sobrecargados de hechos inconexos. Para abordar este desafío, los investigadores han explorado técnicas como la cadena de pensamiento que guía a los modelos para analizar información de forma incremental. Sin embargo, por sí solos, estos métodos luchan por capturar plenamente todos los detalles críticos en contextos vastos.
Este artículo propone una técnica que combina indicaciones de hilo de pensamiento (ToT) con un marco de recuperación de generación aumentada (RAG) que accede a múltiples gráficos de conocimiento en paralelo. Mientras que ToT actúa como la “columna vertebral” del razonamiento que estructura el pensamiento, el sistema RAG amplía el conocimiento disponible para llenar vacíos. La consulta paralela de diversas fuentes de información mejora la eficiencia y la cobertura en comparación con la recuperación secuencial. En conjunto, este marco tiene como objetivo mejorar la comprensión y las habilidades de resolución de problemas de los LLM en contextos caóticos, acercándose a la cognición humana.
Comenzamos delineando la necesidad de un razonamiento estructurado en ambientes caóticos donde se mezclan hechos relevantes e irrelevantes. A continuación, presentamos el diseño del sistema RAG y cómo amplía el conocimiento accesible de un LLM. Luego explicamos la integración de indicaciones de ToT para guiar metódicamente el LLM a través de un análisis paso a paso. Finalmente, analizamos estrategias de optimización como la recuperación paralela para consultar de manera eficiente múltiples fuentes de conocimiento al mismo tiempo.
A través de una explicación conceptual y ejemplos de código Python, este artículo ilumina una técnica novedosa para orquestar las fortalezas de un LLM con conocimiento externo complementario. Integraciones creativas como esta resaltan direcciones prometedoras para superar las limitaciones inherentes del modelo y mejorar las capacidades de razonamiento de la IA. El enfoque propuesto tiene como objetivo proporcionar un marco generalizable que se pueda mejorar a medida que evolucionan los LLM y las bases de conocimientos.