Los sistemas de recuperación de conocimientos han prevalecido durante décadas en muchas industrias, como la atención médica, la educación, la investigación, las finanzas, etc. Su uso moderno ha integrado grandes modelos de lenguaje (LLM) que han aumentado sus capacidades contextuales, brindando respuestas precisas y relevantes a consultas de los usuarios. Sin embargo, para confiar mejor en estos sistemas en casos de consultas ambiguas y recuperación de información más reciente, lo que resulta en respuestas objetivamente inexactas o irrelevantes, es necesario integrar capacidades de adaptación dinámica y aumentar la comprensión contextual de los LLM.. Investigadores de la Universidad Nacional de Taiwán y la Universidad Nacional Chengchi han introducido una metodología novedosa que combina recuperación y generación aumentada (TRAPO) con mecanismos adaptativos y sensibles al contexto para mejorar la precisión y confiabilidad de los LLM.

Los sistemas de recuperación tradicionales a menudo dependían de la indexación de documentos y la priorización de la concordancia de palabras clave. Esto conduce a respuestas contextualmente irrelevantes, ya que carecen de la capacidad de manejar entradas vagas. Además, la falta de adaptación a la nueva información puede producir resultados incorrectos. La generación aumentada de recuperación (RAG) es un enfoque más avanzado que combina capacidades de recuperación y generación. Aunque RAG permite la integración de información en tiempo real, no es confiable y tiene dificultades para mantener la precisión de los hechos debido a su dependencia de bases de conocimiento previamente capacitadas. Por lo tanto, necesitamos un nuevo método para integrar perfectamente los procesos de generación y recuperación y adaptarnos dinámicamente.

El método propuesto utiliza una estrategia dinámica de varios pasos para mejorar aún más la combinación de RAG y recuperación de información. El mecanismo del enfoque es el siguiente:

  • Técnicas de incrustación contextual: las consultas de entrada se convierten en representaciones vectoriales para capturar el significado semántico. Estas incorporaciones pueden comprender mejor las consultas ambiguas y proporcionar información más adecuada.
  • Mecanismos de atención adaptativa: para integrar sin problemas información en tiempo real con la recuperación de información, este método utiliza un mecanismo de atención que puede ajustarse dinámicamente para centrarse en el contexto específico de las consultas del usuario.
  • Marco de modelo dual: consta de un modelo de recuperación y un modelo generativo. Mientras que el primero es experto en extraer información de fuentes estructuradas y no estructuradas, el segundo puede reunir esta información y proporcionar respuestas coherentes.
  • Capacitación ajustada: cuando se emplea para una industria en particular, el modelo se puede ajustar para conjuntos de datos específicos para una comprensión aún más contextual.

Este método se probó en Wikipedia y Lawbank chinos y logró una precisión de recuperación significativa en comparación con los modelos RAG de referencia. Hubo una reducción sustancial de los errores de alucinación, lo que produjo resultados estrechamente alineados con los datos recuperados. A pesar de su recuperación en dos etapas, este método mantuvo una latencia competitiva adecuada para aplicaciones en tiempo real en todos los dominios posibles. Además, los escenarios simulados del mundo real muestran una mayor satisfacción del usuario con respuestas más precisas y contextualmente relevantes del sistema.

El sistema de recuperación basado en RAG en la metodología propuesta es un gran avance en relación con algunas de las deficiencias importantes de los sistemas RAG tradicionales. Garantiza una precisión y confiabilidad mucho mejores en todas las aplicaciones a través de la adaptación dinámica de las estrategias de recuperación y una mejor incorporación del conocimiento en los resultados generativos. La escalabilidad y adaptabilidad de dominio de la metodología la convierte en un hito para futuras mejoras en los sistemas de IA con recuperación aumentada, proporcionando una solución sólida para tareas con uso intensivo de información en industrias críticas.


Verificar el Papel. Todo el crédito por esta investigación va a los investigadores de este proyecto. Además, no olvides seguirnos en Gorjeo y únete a nuestro Canal de telegramas y LinkedIn Grarriba. No olvides unirte a nuestro SubReddit de más de 65.000 ml.

🚨 Recomendar plataforma de código abierto: Parlant es un marco que transforma la forma en que los agentes de IA toman decisiones en escenarios de cara al cliente. (Promovido)


Afeerah Naseem es pasante de consultoría en Marktechpost. Está cursando su licenciatura en tecnología en el Instituto Indio de Tecnología (IIT), Kharagpur. Le apasiona la ciencia de datos y le fascina el papel de la inteligencia artificial en la resolución de problemas del mundo real. Le encanta descubrir nuevas tecnologías y explorar cómo pueden hacer que las tareas cotidianas sean más fáciles y eficientes.

Por automata