La inteligencia artificial (IA) ha avanzado rápidamente y ha revolucionado diversos sectores al realizar tareas que requieren inteligencia humana, como el aprendizaje, el razonamiento y la resolución de problemas. Las mejoras en los algoritmos de aprendizaje automático, las capacidades computacionales y la disponibilidad de grandes conjuntos de datos impulsan estos avances. A pesar de los avances, el campo enfrenta desafíos importantes en materia de transparencia y reproducibilidad, que son fundamentales para la validación científica y la confianza pública en los sistemas de IA.
La cuestión central radica en la necesidad de que los modelos de IA sean más abiertos. Aunque se los etiqueta como de código abierto, muchos modelos de IA solo proporcionan algunos componentes necesarios para una comprensión exhaustiva y una verificación independiente. Esta falta de transparencia erosiona la credibilidad de la investigación en IA y limita el potencial de desarrollo colaborativo. El acceso total a los datos, el código y la documentación facilita la reproducción de resultados o la creación de modelos existentes, lo que sofoca la innovación y plantea inquietudes éticas sobre el uso de estos sistemas.
Los métodos existentes para compartir modelos de IA a menudo implican la publicación de solo elementos seleccionados, como el modelo final entrenado y los pesos, sin documentación exhaustiva ni licencias claras. Plataformas como Hugging Face y GitHub facilitan la distribución de modelos, pero con frecuencia deben incluir información detallada sobre el preprocesamiento de datos, los procesos de entrenamiento y las métricas de evaluación. Este enfoque fragmentado deja a los usuarios e investigadores con una imagen incompleta, lo que dificulta la verificación de afirmaciones o la adaptación de modelos para diferentes aplicaciones. Como resultado, la comunidad de IA enfrenta barreras significativas en materia de transparencia, reproducibilidad y confianza.
Investigadores de la Fundación Linux, la Universidad de Oxford, la Universidad de Columbia y Generative AI Commons han desarrollado el Marco de apertura de modelos (MOF)un sistema integral diseñado para promover la transparencia y la reproducibilidad en el desarrollo de modelos de IA. El MOF proporciona un sistema de clasificación que clasifica los modelos de IA en función de su integridad y apertura. Este marco requiere la inclusión de todos los componentes en el ciclo de vida del desarrollo del modelo y exige que se publiquen bajo licencias abiertas adecuadas, lo que garantiza una transparencia total.
El MOF define 17 componentes esenciales para la apertura de modelos, incluidos conjuntos de datos, código de preprocesamiento de datos, arquitectura de modelos, parámetros de modelos entrenados, metadatos, entrenamiento, código de inferencia, código de evaluación, datos, bibliotecas de soporte y herramientas. Cada componente debe publicarse bajo licencias abiertas adecuadas para su tipo, como licencias aprobadas por OSI para código y licencias CDLA-Permissive para datos. Al especificar estos requisitos, el MOF garantiza que la comunidad pueda inspeccionar, replicar y extender modelos por completo, alineándose así con los principios de la ciencia abierta. Este enfoque integral aborda las deficiencias de los métodos actuales y establece un nuevo estándar para la apertura en la investigación de IA.
La implementación del MOF ha demostrado mejoras significativas en la transparencia y reproducibilidad de la investigación en IA. Los modelos clasificados bajo este marco han demostrado una mayor accesibilidad para revisión, modificación y extensión, fomentando un entorno más colaborativo e innovador. Por ejemplo, el marco ha combatido eficazmente el “lavado abierto”, donde los modelos se comercializan engañosamente como de código abierto a pesar de restricciones significativas. Al distinguir los modelos genuinamente abiertos de los que no lo son, el MOF ayuda a garantizar que los usuarios e investigadores puedan confiar y verificar los modelos con los que trabajan, promoviendo el desarrollo responsable de la IA.
El MOF también introduce un sistema de clasificación con tres niveles: Clase I, Clase II y Clase III. La Clase III, el nivel de entrada, incluye componentes básicos como la arquitectura del modelo y los parámetros finales, junto con la documentación básica y los resultados de la evaluación. La Clase II se basa en esto al agregar código completo de entrenamiento e inferencia, pruebas de referencia y bibliotecas de soporte. La Clase I, el nivel más alto, se alinea con los ideales de la ciencia abierta al requerir un documento de investigación detallado, conjuntos de datos de entrenamiento sin procesar y archivos de registro completos. Este enfoque escalonado guía a los productores de modelos en la mejora progresiva de la integridad y apertura de sus lanzamientos.
En conclusión, el Marco de Apertura de Modelos exige la divulgación integral de todos los componentes del modelo y su correspondiente licencia, y el Marco de Apertura de Modelos aborda cuestiones críticas de reproducibilidad y confianza. Este marco no solo ayuda a los investigadores y desarrolladores a compartir su trabajo de manera más abierta, sino que también ayuda a los usuarios a adoptar e implementar modelos de IA con confianza y responsabilidad.
Revisar la Papel. Todo el crédito por esta investigación corresponde a los investigadores de este proyecto. Además, no olvides seguirnos en Gorjeo y únete a nuestro Canal de Telegram y LinkedIn Gr¡Arriba!. Si te gusta nuestro trabajo, te encantará nuestro Boletin informativo..
No olvides unirte a nuestro Subreddit de más de 48 000 millones de usuarios
Encuentra lo próximo Seminarios web sobre IA aquí
Asif Razzaq es el director ejecutivo de Marktechpost Media Inc. Como ingeniero y emprendedor visionario, Asif está comprometido con aprovechar el potencial de la inteligencia artificial para el bien social. Su iniciativa más reciente es el lanzamiento de una plataforma de medios de inteligencia artificial, Marktechpost, que se destaca por su cobertura en profundidad de noticias sobre aprendizaje automático y aprendizaje profundo que es técnicamente sólida y fácilmente comprensible para una amplia audiencia. La plataforma cuenta con más de 2 millones de visitas mensuales, lo que ilustra su popularidad entre el público.