De las contradicciones a la coherencia: alineación lógica en modelos de IA

Modelos de lenguajes grandes (LLM) Su objetivo es alinearse con las preferencias humanas, garantizando una toma de decisiones fiable y digna de confianza. Sin embargo, estos modelos adquieren sesgos, saltos lógicos y alucinaciones, lo que los vuelve inválidos e inofensivos para tareas críticas que implican pensamiento lógico. Los problemas de coherencia lógica hacen imposible desarrollar LLM lógicamente coherentes. También utilizan razonamiento temporal, optimización y sistemas automatizados, lo que da como resultado conclusiones menos confiables.

Los métodos actuales para alinear los modelos de lenguajes grandes (LLM) con las preferencias humanas se basan en entrenamiento supervisado con datos de seguimiento de instrucciones y aprendizaje reforzado a partir de comentarios humanos. Sin embargo, estos métodos adolecen de problemas como alucinaciones, sesgos e inconsistencia lógica, lo que socava la validez de los LLM. Por lo tanto, la mayoría de las mejoras en la coherencia del LLM se han realizado sobre el simple conocimiento fáctico o la simple vinculación entre unas pocas declaraciones, descuidando otros escenarios de toma de decisiones o tareas más complejas que involucran más de un elemento. Esta brecha limita su capacidad para proporcionar un razonamiento coherente y confiable en aplicaciones del mundo real donde la coherencia es esencial.

Para evaluar la coherencia lógica en modelos de lenguaje grande (LLM), investigadores de la universidad de cambridge y Universidad de Monash propuso un marco universal para cuantificar la coherencia lógica mediante la evaluación de tres propiedades clave: transitividad, conmutatividady invariancia de negación. La transitividad aseguraba que si un modelo determinaba que un elemento era preferido sobre un segundo y el segundo sobre un tercero, también concluía que se elegía el primer elemento sobre el tercero. La conmutatividad aseguró que los juicios del modelo siguieran siendo los mismos independientemente del orden en que se compararan los elementos.

Al mismo tiempo, se comprobó la coherencia de la invariancia de la negación en el manejo de las negaciones relacionales. Estas propiedades formaron la base de un razonamiento fiable en los modelos. Los investigadores formalizaron el proceso de evaluación tratando un LLM como una función de operador. FFF que compararon pares de ítems y asignaron decisiones relacionales. La coherencia lógica se midió utilizando métricas como trans(K)s_{tran}(K)stran​(K) para transitividad y scomms_{comm}scomm​ para conmutatividad. Stran (K)s_{tran}(K)stran​(K) transitividad cuantificada muestreando subconjuntos de elementos y detectando ciclos en el gráfico de relaciones. Al mismo tiempo, scomms_{comm}scomm​ evaluaron si los juicios del modelo permanecían estables cuando se invertía el orden de los ítems en las comparaciones. Ambas métricas oscilaron entre 0 a 1donde los valores más altos indican un mejor rendimiento.

Los investigadores aplicaron estas métricas a varios LLM, revelando vulnerabilidades a sesgos como el de permutación y el sesgo posicional. Para abordar esto, introdujeron una técnica de aumento y refinamiento de datos utilizando métodos de agregación de rangos para estimar clasificaciones de preferencias parciales u ordenadas a partir de comparaciones por pares ruidosas o escasas. Esto mejoró la coherencia lógica sin comprometer la alineación con las preferencias humanas y enfatizó el papel esencial de la coherencia lógica en la mejora del rendimiento de los algoritmos dependientes de la lógica.

Los investigadores probaron tres tareas para evaluar la coherencia lógica en los LLM: resumen abstractivo, reclasificación de documentos, y ordenamiento temporal de eventos utilizando conjuntos de datos como EvaluaciónSumm, NovelEvaly catering. Evaluaron la transitividad, la conmutatividad, la invariancia de la negación y el acuerdo humano y consigo mismo. Los resultados mostraron que los modelos más nuevos como Deepseek-chat, Phi-3-medium, y Gemma-2-9B tenía una mayor coherencia lógica, aunque esto no se correlacionaba fuertemente con la precisión del acuerdo humano. El catering El conjunto de datos mostró una mayor coherencia, centrándose en las relaciones temporales y causales. Las indicaciones en cadena de pensamiento tuvieron resultados mixtos, a veces reduciendo la transitividad debido a fichas de razonamiento adicionales. El autoacuerdo estaba relacionado con la transitividad; esto muestra que el razonamiento coherente es fundamental para la coherencia lógica, y modelos como Phi-3-medium y Gemma-2-9B tienen la misma confiabilidad para cada tarea, lo que enfatiza la necesidad de contar con datos de entrenamiento más limpios.

Al final, los investigadores demostraron la importancia de la coherencia lógica para mejorar la confiabilidad de modelos de lenguaje grandes. Presentaron un método para medir los aspectos clave de la coherencia y explicaron un proceso de limpieza de datos que reduce la cantidad de valores predeterminados sin dejar de ser pertinente para los humanos. Este marco se puede utilizar además como guía para investigaciones posteriores destinadas a mejorar la coherencia de los LLM y para continuar los esfuerzos para implementar los LLM en los sistemas de toma de decisiones para mejorar la eficacia y la productividad.


Verificar el Papel. Todo el crédito por esta investigación va a los investigadores de este proyecto. Además, no olvides seguirnos en Gorjeo y únete a nuestro Canal de telegramas y LinkedIn Grarriba. No olvides unirte a nuestro SubReddit de más de 60.000 ml.

🚨 PRÓXIMO SEMINARIO WEB GRATUITO SOBRE IA (15 DE ENERO DE 2025): Aumente la precisión del LLM con datos sintéticos e inteligencia de evaluaciónÚnase a este seminario web para obtener información práctica para mejorar el rendimiento y la precisión del modelo LLM y, al mismo tiempo, proteger la privacidad de los datos..


Divyesh es pasante de consultoría en Marktechpost. Está cursando un BTech en Ingeniería Agrícola y Alimentaria en el Instituto Indio de Tecnología de Kharagpur. Es un entusiasta de la ciencia de datos y el aprendizaje automático que quiere integrar estas tecnologías líderes en el ámbito agrícola y resolver desafíos.