Mejora del ajuste de instrucciones en LLM: una estrategia de selección de datos consciente de la diversidad utilizando autoencoders escasos

Los LLM previos al entrenamiento requieren un ajuste de instrucciones para alinearse con las preferencias humanas. Aún así, la vasta recopilación de datos y la rápida iteración del modelo a menudo conducen a una sobresaturación, lo que hace que la selección de datos eficiente sea un área crucial pero poco excesiva. Los métodos de selección de calidad existentes, como Lima y Alpagaso, tienden a pasar por alto la importancia de la diversidad y la complejidad de los datos, esenciales para mejorar el rendimiento del modelo. Si bien Scaling LLMS ha demostrado ser beneficioso, la optimización de la instrucción fina (IFT) se basa en la calidad, diversidad y complejidad de los datos de capacitación. Sin embargo, medir estos factores sigue siendo desafiante, y investigaciones recientes pidieron métricas cuantificables para evaluar la diversidad de los conjuntos de datos en lugar de depender de reclamos subjetivos. Los autoencoders dispersos (SAE) han surgido recientemente como herramientas efectivas para interpretar LLM al garantizar representaciones mono-semánticas, haciéndolas valiosas para analizar los mecanismos de selección de datos.

Los autoencoders escasos han mejorado significativamente la interpretabilidad de LLM al hacer cumplir la escasez en representaciones, mejorando así la independencia de las características. Los primeros trabajos en la codificación escasa y el aprendizaje del diccionario establecieron las bases para las representaciones de datos estructuradas, luego se aplican a los transformadores para decodificar las incrustaciones contextuales. Investigaciones recientes han destacado los desafíos de las neuronas polisemánticas que codifican múltiples conceptos, lo que provocó esfuerzos para desarrollar neuronas monosemánticas para una mejor interpretabilidad. Paralelamente, se han explorado métodos de selección de datos, como la puntuación basada en ChatGPT y la agrupación basada en gradientes, para refinar el ajuste de instrucciones. A pesar de los avances, cuantificar con precisión la calidad de los datos, la diversidad y la complejidad siguen siendo complejas, lo que requiere más investigaciones sobre métricas efectivas y estrategias de selección para optimizar el ajuste de instrucciones en LLM.

Los investigadores de Meta Genai introducen una estrategia de selección de datos consciente de la diversidad utilizando SAE para mejorar el ajuste de instrucciones. Los SAE ayudan a cuantificar la diversidad de datos y mejorar la interpretabilidad del modelo, explicando métodos como seleccionar la respuesta más larga. Desarrollan dos algoritmos de selección: SAE-GreedSelect para datos limitados y SAE-Simscale para conjuntos de datos más grandes. Los experimentos en alpaca y wizardlm_evol_instruct_70k conjuntos de datos demuestran un rendimiento superior sobre las técnicas anteriores. Su enfoque refina la selección de datos, reduce los costos de capacitación y ofrece información más profunda sobre el comportamiento del modelo, haciendo que el ajuste de la instrucción sea más eficiente e interpretable.

El estudio introduce dos métodos de selección de datos impulsados ​​por la diversidad utilizando SAE. SAE-GreedSelect Optimiza la utilización de características para seleccionar datos limitados, mientras que la selección de datos de escala SAE SIMScale utilizando muestreo basado en similitud. Experimentos en LLAMA-2-13B, GEMMA-2-9B y LLAMA-2-7B-BASE Validan el enfoque utilizando conjuntos de datos Alpaca-52K y Wizardlm_evol_instruct_70k. Las comparaciones con líneas de base como la respuesta más larga, #Instag y el filtro REP demuestran un rendimiento superior. Los modelos se capacitan utilizando configuraciones estandarizadas y se evalúan con métodos Ifeval, LLM y humanos como jueces, y puntos de referencia como MMLU y Lightfulqa. Los resultados resaltan la eficiencia de sintonización de instrucciones mejoradas e interpretabilidad al tiempo que se mantiene la simplicidad en la sintonización de parámetros.

Seleccionar las 1,000 respuestas más largas es una línea de base efectiva para el ajuste fino supervisado (SFT), probablemente porque las respuestas más largas contienen información más aprendible. Una fuerte correlación (r = 0.92) entre la longitud del texto y la riqueza de características en un SAE respalda esta hipótesis. Los métodos de selección de datos propuestos, SAE-GreedSelect y SAE-Simscale, superan a las líneas de base existentes, particularmente a escalas de datos más grandes. SAE-SIMScale logra mejoras notables en múltiples conjuntos de datos y métricas de evaluación, destacando su robustez. Otros experimentos confirman su efectividad en los tamaños y arquitecturas del modelo, lo que refuerza su potencial para optimizar las estrategias de selección de datos escalables.

En conclusión, el estudio introduce un enfoque para medir la diversidad de datos utilizando la monosemántica aprendida en autoencoders dispersos. Se desarrolló un nuevo algoritmo de selección de datos para el ajuste de instrucciones, mejorando el rendimiento del modelo en varios conjuntos de datos. El método supera constantemente las técnicas de selección existentes y demuestra que los pares de respuesta de instrucción más largos mejoran las capacidades del modelo. El enfoque también mejora la eficiencia al reducir los requisitos de datos y los costos de capacitación. Además, ofrece información sobre el comportamiento del modelo y se puede extender a la selección de datos de preferencia o mejorar la seguridad del modelo. Esta estrategia garantiza una mejor alineación con las preferencias humanas al tiempo que mantiene la diversidad y la complejidad en los datos de capacitación.


Verificar el Papel. Todo el crédito por esta investigación va a los investigadores de este proyecto. Además, siéntete libre de seguirnos Gorjeo Y no olvides unirte a nuestro Subreddit de 80k+ ml.

🚨 Lectura de lectura recomendada Liberaciones de investigación de IA: un sistema avanzado que integra el sistema de IA del agente y los estándares de cumplimiento de datos para abordar las preocupaciones legales en los conjuntos de datos de IA


Sana Hassan, una pasante de consultoría en MarktechPost y estudiante de doble grado en IIT Madras, le apasiona aplicar tecnología e IA para abordar los desafíos del mundo real. Con un gran interés en resolver problemas prácticos, aporta una nueva perspectiva a la intersección de la IA y las soluciones de la vida real.