LongRAG: un nuevo marco de IA de inteligencia artificial que combina RAG con LLM de contexto largo para mejorar el rendimiento

Los métodos de recuperación-generación aumentada (RAG) mejoran las capacidades de los modelos de lenguaje grandes (LLM) al incorporar conocimiento externo recuperado de vastos corpus. Este enfoque es particularmente beneficioso para la respuesta a preguntas de dominio abierto, donde las respuestas detalladas y precisas son cruciales. Al aprovechar la información externa, los sistemas RAG pueden superar las limitaciones de depender únicamente del conocimiento paramétrico integrado en los LLM, haciéndolos más efectivos en el manejo de consultas complejas.

Un desafío importante en los sistemas RAG es el desequilibrio entre los componentes del recuperador y del lector. Los marcos tradicionales suelen utilizar unidades de recuperación cortas, como pasajes de 100 palabras, lo que requiere que el recuperador examine grandes cantidades de datos. Este diseño supone una gran carga para el recuperador, mientras que la tarea del lector sigue siendo relativamente simple, lo que genera ineficiencias y una posible incompletitud semántica debido al truncamiento del documento. Este desequilibrio restringe el rendimiento general de los sistemas RAG, lo que requiere una reevaluación de su diseño.

Los métodos actuales en los sistemas RAG incluyen técnicas como Dense Passage Retrieval (DPR), que se centra en encontrar unidades de recuperación cortas y precisas a partir de grandes corpus. Estos métodos a menudo implican recuperar muchas unidades y emplear procesos complejos de reclasificación para lograr una alta precisión. Si bien son efectivos hasta cierto punto, estos enfoques aún necesitan trabajar en la ineficiencia inherente y la representación semántica incompleta debido a su dependencia de unidades de recuperación cortas.

Para abordar estos desafíos, el equipo de investigación de la Universidad de Waterloo introdujo un marco novedoso llamado LongRAG. Este marco comprende un componente de “recuperador largo” y un “lector largo”, diseñados para procesar unidades de recuperación más largas de alrededor de 4K tokens cada una. Al aumentar el tamaño de las unidades de recuperación, LongRAG reduce el número de unidades de 22 millones a 600.000, lo que alivia significativamente la carga de trabajo del recuperador y mejora las puntuaciones de recuperación. Este enfoque innovador permite al recuperador manejar unidades de información más completas, mejorando la eficiencia y precisión del sistema.

El marco LongRAG opera agrupando documentos relacionados en unidades de recuperación largas, que luego el recuperador procesa para identificar información relevante. Para extraer las respuestas finales, el recuperador filtra las 4 a 8 unidades principales, las concatena y las introduce en un LLM de contexto largo, como Gemini-1.5-Pro ​​o GPT-4o. Este método aprovecha las capacidades avanzadas de los modelos de contexto largo para procesar grandes cantidades de texto de manera eficiente, asegurando una extracción de información exhaustiva y precisa.

En profundidad, la metodología implica el uso de un codificador para asignar la pregunta de entrada a un vector y un codificador diferente para asignar las unidades de recuperación a los vectores. La similitud entre la pregunta y las unidades de recuperación se calcula para identificar las unidades más relevantes. El long retriever busca entre estas unidades, reduciendo el tamaño del corpus y mejorando la precisión del retriever. Luego, las unidades recuperadas se concatenan y se introducen en el lector largo, que utiliza el contexto para generar la respuesta final. Este enfoque garantiza que el lector procese un conjunto completo de información, mejorando el rendimiento general del sistema.

El rendimiento de LongRAG es realmente notable. En el conjunto de datos de Preguntas Naturales (NQ), logró una puntuación de coincidencia exacta (EM) del 62,7 %, un importante avance en comparación con los métodos tradicionales. En el conjunto de datos HotpotQA, alcanzó una puntuación de EM del 64,3%. Estos impresionantes resultados demuestran la eficacia de LongRAG, igualando el rendimiento de los modelos RAG de última generación. El marco redujo el tamaño del corpus 30 veces y mejoró la recuperación de respuestas en aproximadamente 20 puntos porcentuales en comparación con los métodos tradicionales, con una puntuación de recuperación de respuestas@1 del 71 % en NQ y del 72 % en HotpotQA.

La capacidad de LongRAG para procesar unidades de recuperación largas preserva la integridad semántica de los documentos, lo que permite respuestas más precisas y completas. Al reducir la carga del recuperador y aprovechar los LLM avanzados de contexto largo, LongRAG ofrece un enfoque más equilibrado y eficiente para la generación de recuperación aumentada. La investigación de la Universidad de Waterloo no sólo proporciona información valiosa sobre la modernización del diseño del sistema RAG, sino que también destaca el interesante potencial para futuros avances en este campo, generando optimismo para el futuro de los sistemas de generación aumentada de recuperación.

En conclusión, LongRAG representa un importante paso adelante para abordar las ineficiencias y desequilibrios de los sistemas RAG tradicionales. Emplear unidades de recuperación prolongadas y aprovechar las capacidades de los LLM avanzados mejora la precisión y eficiencia de las tareas de respuesta a preguntas de dominio abierto. Este marco innovador mejora el rendimiento de la recuperación y sienta las bases para desarrollos futuros en sistemas de generación aumentada con recuperación.


Revisar la Papel y GitHub. Todo el crédito por esta investigación va a los investigadores de este proyecto. Además, no olvides seguirnos en Gorjeo.

Únete a nuestro Canal de telegramas y LinkedIn Grarriba.

Si te gusta nuestro trabajo, te encantará nuestro Boletin informativo..

No olvides unirte a nuestro SubReddit de más de 45.000 ml

🚀 Cree, edite y aumente datos tabulares con el primer sistema de IA compuesto, Gretel Navigator, ¡ahora disponible de forma generalizada! [Advertisement]


Nikhil es consultor interno en Marktechpost. Está cursando una doble titulación integrada en Materiales en el Instituto Indio de Tecnología de Kharagpur. Nikhil es un entusiasta de la IA/ML que siempre está investigando aplicaciones en campos como los biomateriales y la ciencia biomédica. Con una sólida experiencia en ciencia de materiales, está explorando nuevos avances y creando oportunidades para contribuir.