Algunas reflexiones sobre las indicaciones de LLM: una descripción general del razonamiento estructurado de LLM |  de Yunzhe Wang |  septiembre de 2023

La novedad de GoT radica en su capacidad de aplicar transformaciones a estos pensamientos, refinando aún más el proceso de razonamiento. Las transformaciones cardinales abarcan la Agregación, que permite la fusión de varios pensamientos en una idea consolidada; Refinamiento, donde se realizan iteraciones continuas sobre un pensamiento singular para mejorar su precisión; y Generación, que facilita la concepción de pensamientos novedosos a partir de otros existentes. Tales transformaciones, con énfasis en la amalgama de rutas de razonamiento, ofrecen un punto de vista más complejo en relación con modelos anteriores como CoT o ToT.

Además, GoT introduce una dimensión evaluativa a través de puntuación y clasificación. Cada pensamiento individual, representado por un vértice, se somete a una evaluación basada en su pertinencia y calidad, facilitada por una función de puntuación designada. Es importante destacar que esta función contempla toda la cadena de razonamiento, asignando puntuaciones que podrían contextualizarse frente a otros vértices del gráfico. El marco también dota al sistema de la competencia para jerarquizar estos pensamientos en función de sus respectivas puntuaciones, una característica que resulta fundamental a la hora de discernir qué ideas merecen prioridad o implementación.

Mantiene una única cadena de contexto en evolución, eliminando la necesidad de consultas redundantes como en el Árbol del Pensamiento. Explora un camino mutable de razonamiento.

Mientras que ToT y GoT abordan el desafío del razonamiento LLM a través de mecanismos basados ​​en búsqueda, produciendo una gran variedad de rutas de razonamiento en forma de gráficos. Sin embargo, su gran dependencia de numerosas consultas de LLM, que a veces suman cientos para un problema singular, plantea ineficiencias computacionales.

El Algoritmo de pensamientos (AoT) ofrece un método innovador que presenta un camino de razonamiento dinámico y mutable. Al mantener una única cadena de contexto de pensamiento en evolución, AoT consolida la exploración del pensamiento, mejorando la eficiencia y reduciendo la sobrecarga computacional.

Algoritmo de pensamientos. Cada cuadro significa un pensamiento distinto. Los verdes son pensamientos prometedores, mientras que los rojos son menos prometedores. Nota: ToT tiene múltiples consultas mientras que AoT mantiene un contexto único, fuente: Sel et al. (2023)

El ingenio detrás de AoT surge de la observación de que los LLM, aunque poderosos, ocasionalmente recurren a soluciones anteriores cuando se enfrentan a problemas nuevos pero familiares. Para superar esto, AoT asimila ejemplos en contexto, basándose en algoritmos de búsqueda probados en el tiempo, como la búsqueda en profundidad (DFS) y la búsqueda en amplitud (BFS). Al emular el comportamiento algorítmico, AoT subraya la importancia de lograr resultados exitosos y obtener información de intentos fallidos.

La piedra angular de AoT reside en sus cuatro componentes principales: 1) Descomponer problemas complejos en subproblemas digeribles, considerando tanto su interrelación como la facilidad con la que pueden abordarse individualmente; 2) Proponer soluciones coherentes a estos subproblemas de manera continua e ininterrumpida; 3) Evaluar intuitivamente la viabilidad de cada solución o subproblema sin depender de indicaciones externas explícitas; y 4) Determinar los caminos más prometedores para explorar o retroceder, basándose en ejemplos contextuales y pautas algorítmicas.

Primero genere un plan de respuesta antes de desarrollar los detalles en paralelo, lo que reduce el tiempo necesario para generar una respuesta completa.

El Esqueleto del pensamiento (SoT) El paradigma está diseñado distintivamente no principalmente para aumentar las capacidades de razonamiento de los modelos de lenguaje grande (LLM), sino para abordar el desafío fundamental de minimizar la latencia de generación de un extremo a otro. La metodología opera basándose en un enfoque de dos etapas que se centra en producir un modelo preliminar de la respuesta, seguido de su expansión integral.

Esqueleto del pensamiento, fuente: Ning et al. (2023)

En la “etapa del esqueleto” inicial, en lugar de producir una respuesta integral, se le pide al modelo que genere un esqueleto de respuesta conciso. Esta representación abreviada, generada a través de una plantilla de esqueleto meticulosamente elaborada, captura los elementos centrales de la posible respuesta, estableciendo así una base para la etapa siguiente.

En la siguiente “Etapa de expansión de puntos”, el LLM amplifica sistemáticamente cada componente delineado en el esqueleto de respuestas. Aprovechando una plantilla de indicaciones que se expande por puntos, el modelo elabora simultáneamente cada segmento del esqueleto. Este enfoque dicotómico, que separa el proceso generativo en una formulación esquelética preliminar y una expansión detallada en paralelo, no sólo acelera la generación de respuestas sino que también se esfuerza por mantener la coherencia y precisión de los resultados.

Formule el razonamiento detrás de la respuesta a las preguntas en un programa ejecutable, incorporó el resultado del intérprete del programa como parte de la respuesta final.

Programa de pensamientos (PoT) es un enfoque único para el razonamiento LLM, en lugar de simplemente generar una respuesta en lenguaje natural, PoT exige la creación de un programa ejecutable, lo que significa que se puede ejecutar en un intérprete de programa, como Python, para producir resultados tangibles. Este método contrasta con modelos más directos y enfatiza su capacidad para dividir el razonamiento en pasos secuenciales y asociar significados semánticos con variables. Como resultado, PoT ofrece un modelo más claro, expresivo y fundamentado de cómo se obtienen las respuestas, lo que mejora la precisión y la comprensión, especialmente para preguntas lógicas de tipo matemático donde se necesitan cálculos numéricos.

Es importante señalar que la ejecución del programa PoT no necesariamente tiene como objetivo la respuesta final, sino que puede ser parte del paso intermedio hacia la respuesta final.

Comparación entre CoT y PoT, fuente: Chen et al. (2022)