FocusLLM: un marco de inteligencia artificial escalable para el procesamiento eficiente de contextos extensos en modelos lingüísticos

Para muchas aplicaciones, es esencial que los LLM puedan manejar contextos largos de manera eficaz, pero los transformadores convencionales requieren recursos sustanciales para contextos de mayor longitud. Los contextos largos mejoran tareas como la síntesis de documentos y la respuesta a preguntas. Sin embargo, surgen varios desafíos: la complejidad cuadrática de los transformadores aumenta los costos de capacitación, los LLM necesitan ayuda con secuencias más largas incluso después de realizar ajustes y es difícil obtener conjuntos de datos de texto largo de alta calidad. Para mitigar estos problemas, se han explorado métodos como la modificación de los mecanismos de atención o la compresión de tokens, pero a menudo resultan en pérdida de información, lo que dificulta tareas precisas como la verificación y la respuesta a preguntas.

Investigadores de las Universidades de Tsinghua y Xiamen presentaron FocusLLM, un marco diseñado para extender la longitud del contexto de los LLM que solo cuentan con decodificador. FocusLLM divide el texto largo en fragmentos y utiliza un mecanismo de decodificación paralelo para extraer e integrar la información relevante. Este enfoque mejora la eficiencia y la versatilidad del entrenamiento, lo que permite que los LLM manejen textos de hasta 400 000 tokens con costos de entrenamiento mínimos. FocusLLM supera a otros métodos en tareas como la respuesta a preguntas y la comprensión de textos largos, demostrando un rendimiento superior en los puntos de referencia Longbench y ∞-Bench, al tiempo que mantiene una baja perplejidad en secuencias extensas.

Los avances recientes en el modelado de contextos largos han introducido varios enfoques para superar las limitaciones de los transformadores. Los métodos de extrapolación de longitud, como la interpolación posicional, tienen como objetivo adaptar los transformadores a secuencias más largas, pero a menudo tienen problemas con las distracciones del contenido ruidoso. Otros métodos modifican los mecanismos de atención o utilizan la compresión para gestionar textos largos, pero no consiguen utilizar todos los tokens de forma eficaz. Los modelos mejorados con memoria mejoran la comprensión de contextos largos integrando la información en la memoria persistente o codificando y consultando textos largos en segmentos. Sin embargo, estos métodos se enfrentan a limitaciones en la extrapolación de la longitud de la memoria y a altos costes computacionales, mientras que FocusLLM consigue una mayor eficiencia y eficacia de entrenamiento en textos extremadamente largos.

La metodología detrás de FocusLLM implica adaptar la arquitectura LLM para manejar secuencias de texto extremadamente largas. FocusLLM segmenta la entrada en fragmentos, cada uno procesado por un decodificador aumentado con parámetros entrenables adicionales. El contexto local se adjunta a cada fragmento, lo que permite una decodificación paralela, donde los tokens candidatos se generan simultáneamente en todos los fragmentos. Este enfoque reduce significativamente la complejidad computacional, en particular con secuencias largas. El entrenamiento de FocusLLM utiliza una pérdida autorregresiva, que se centra en predecir el siguiente token, y emplea dos funciones de pérdida (pérdida de continuación y pérdida de repetición) para mejorar la capacidad del modelo para manejar diversos tamaños de fragmentos y contextos.

La evaluación de FocusLLM destaca su sólido desempeño en el modelado de lenguaje y las tareas posteriores, especialmente con entradas de contexto largo. Entrenado de manera eficiente en GPU 8×A100, FocusLLM supera a LLaMA-2-7B y otros métodos sin ajuste fino, manteniendo una perplejidad estable incluso con secuencias extendidas. En las tareas posteriores que utilizan los conjuntos de datos Longbench y ∞-Bench, superó a modelos como StreamingLLM y Activation Beacon. El diseño de FocusLLM, que incluye decodificación paralela y procesamiento de fragmentos eficiente, le permite manejar secuencias largas de manera efectiva sin la carga computacional de otros modelos, lo que lo convierte en una solución altamente eficiente para tareas de contexto largo.

En conclusión, FocusLLM presenta un marco que extiende significativamente la longitud del contexto de los LLM mediante el uso de una estrategia de decodificación paralela. Este enfoque divide los textos largos en fragmentos manejables, extrayendo información esencial de cada uno de ellos e integrándola en el contexto. FocusLLM realiza tareas posteriores superiores al tiempo que mantiene una baja perplejidad, incluso con secuencias de hasta 400K tokens. Su diseño permite una notable eficiencia de entrenamiento, lo que permite el procesamiento de contextos largos con costos computacionales y de memoria mínimos. Este marco ofrece una solución escalable para mejorar los LLM, lo que lo convierte en una herramienta valiosa para aplicaciones de contextos largos.


Echa un vistazo a la Papel. Todo el crédito por esta investigación corresponde a los investigadores de este proyecto. Además, no olvides seguirnos en Gorjeo y únete a nuestro Canal de Telegram y LinkedIn Gr¡Arriba!. Si te gusta nuestro trabajo, te encantará nuestro hoja informativa..

No olvides unirte a nuestro Más de 49 000 suscriptores de ML en Reddit

Encuentra lo próximo Seminarios web sobre IA aquí


Sana Hassan, pasante de consultoría en Marktechpost y estudiante de doble titulación en el IIT Madrás, es un apasionado de la aplicación de la tecnología y la IA para abordar los desafíos del mundo real. Con un gran interés en resolver problemas prácticos, aporta una perspectiva nueva a la intersección de la IA y las soluciones de la vida real.