Screenshot 2024 06 08 At 9.28.39 Pm.png

El notable rendimiento en diferentes tareas de razonamiento ha sido demostrado por varios modelos de lenguajes grandes (LLM), como GPT-4, PaLM y LLaMA. Para aumentar aún más la funcionalidad y el rendimiento de los LLM, existen métodos de estimulación más efectivos y un aumento del tamaño del modelo, los cuales mejoran el rendimiento del razonamiento. Los enfoques se clasifican de la siguiente manera: (i) métodos que se basan en una única consulta para completar el proceso de razonamiento, como los que se utilizan para la ingeniería rápida; (ii) métodos que utilizan múltiples consultas LLM para producir diferentes caminos de razonamiento plausibles, dividiendo problemas complejos en otros más pequeños; ejemplos de este tipo de razonamiento incluyen de menor a mayor, ToT y GoT.

Sin embargo, existen limitaciones para ambos tipos de métodos:

  • No es práctico diseñar manualmente sistemas de razonamiento de consulta única tarea por tarea porque normalmente se basan en suposiciones previas o ejemplos relevantes de procesos de razonamiento.
  • Los sistemas de razonamiento de consultas múltiples son computacionalmente intensivos porque expanden recursivamente las rutas de razonamiento para encontrar una estructura intrínseca única para cada tarea.
  • Tanto los sistemas de razonamiento de consulta única como los de consulta múltiple están limitados por sus estructuras de razonamiento y ejemplos. No logran derivar pautas o pensamientos generales y de alto nivel de tareas previamente completadas, que podrían ser útiles para mejorar la eficiencia y precisión al resolver problemas similares.

Al presentar un enfoque novedoso para abordar estas limitaciones, un equipo de investigadores de la Universidad de Pekín, la UC Berkeley y la Universidad de Stanford han desarrollado el Buffer of Thoughts (BoT). Este marco innovador y flexible para el razonamiento aumentado por el pensamiento está diseñado para mejorar la precisión, eficiencia y resiliencia del razonamiento de los LLM en una amplia gama de tareas. Un componente clave de BoT es el metabúfer, una pequeña biblioteca que almacena un conjunto de ideas generalizables de alto nivel (plantillas de pensamiento) extraídas de varios procedimientos de resolución de problemas. Estas plantillas de pensamiento se pueden reutilizar para otras tareas, lo que facilita un razonamiento eficaz potenciado por el pensamiento y se configura con una estructura de razonamiento específica.

BoT está diseñado para ser estable y escalable, por lo que el equipo incluyó un administrador de búfer para actualizar el metabúfer dinámicamente. De esta manera, la capacidad del metabúfer aumenta efectivamente a medida que se realizan más trabajos. Los tres beneficios principales de este enfoque son:

  1. Precisión mejorada: al utilizar plantillas de pensamiento compartidas, es posible crear instancias de pensamientos de alto nivel para abordar diversas tareas de forma adaptativa. Esto elimina la necesidad de construir estructuras de razonamiento desde el principio, mejorando drásticamente la precisión del razonamiento.
  2. Razonamiento simplificado: al utilizar directamente estructuras informativas de razonamiento histórico, el razonamiento potenciado por el pensamiento propuesto podría agilizar los procesos de razonamiento y eliminar engorrosos procedimientos de consultas múltiples.
  3. El enfoque de BoT para recuperar y crear instancias de pensamientos refleja los procesos del cerebro humano, mejorando la capacidad de los LLM para resolver consistentemente problemas similares. Esto mejora la solidez del modelo y, cuando se aplica a diversas tareas, los resultados experimentales demuestran que BoT mejora significativamente la precisión, la eficiencia y la resiliencia. Estos beneficios prácticos hacen de BoT una herramienta prometedora para mejorar el rendimiento de los LLM en aplicaciones del mundo real.

Los investigadores construyen un administrador de búfer para extraer ideas de diferentes soluciones y mejora la capacidad del metabúfer a medida que se completan más tareas. Realizan experimentos exhaustivos en diez tareas difíciles que requieren mucho razonamiento. Con un costo promedio de solo el 12 % de los enfoques de solicitud de consultas múltiples, BoT supera a los métodos SOTA anteriores en un 51 % en Jaque Mate en Uno, un 11 % en Juego de 24 y un 20 % en Formas Geométricas.

El enfoque propuesto mejora enormemente la precisión y al mismo tiempo mantiene el razonamiento eficiente y sólido. Sin embargo, cuando se trata de problemas que requieren un ingenio humano, el método no tiene poco que ofrecer, porque estos problemas a menudo no tienen una plantilla de pensamiento precisa. Además, las plantillas de pensamiento resultantes podrían no ser de la mejor calidad si BoT utiliza un modelo menos robusto para inicializar el metabúfer. Esto se debe a que el modelo más débil tiene capacidades restringidas de razonamiento y seguimiento de instrucciones. En conjunto, los siguientes son los caminos a seguir que BoT revela: 1. Crear un sistema de dominio abierto, como un modelo de agente, combinando BoT con recursos externos. 2. optimizar la destilación de plantillas de pensamiento, lo que podría mejorar en gran medida su capacidad como plantillas para actividades cada vez más complicadas.


Revisar la Papel y GitHub. Todo el crédito por esta investigación va a los investigadores de este proyecto. Además, no olvides seguirnos en Gorjeo. Únete a nuestro Canal de telegramas, Canal de discordiay LinkedIn Grarriba.

Si te gusta nuestro trabajo, te encantará nuestro Boletin informativo..

No olvides unirte a nuestro SubReddit de 44k+ ML


Dhanshree Shenwai es ingeniero en informática y tiene una buena experiencia en empresas de tecnología financiera que cubren el ámbito financiero, tarjetas y pagos y banca con un gran interés en las aplicaciones de IA. Le entusiasma explorar nuevas tecnologías y avances en el mundo en evolución de hoy que facilita la vida de todos.