OpenAI, junto con líderes de la industria como Amazon, Anthropic, Civitai, Google, Meta, Metaphysic, Microsoft, Mistral AI y Stability AI, se ha comprometido a implementar medidas sólidas de seguridad infantil en el desarrollo, implementación y mantenimiento de tecnologías de IA generativa como se articula en los principios de Seguridad por Diseño. Esta iniciativa, liderada por Espinauna organización sin fines de lucro dedicada a defender a los niños del abuso sexual, y Toda la tecnología es humana, una organización dedicada a abordar los complejos problemas de la tecnología y la sociedad, tiene como objetivo mitigar los riesgos que la IA generativa representa para los niños. Al adoptar principios integrales de seguridad desde el diseño, OpenAI y nuestros pares garantizan que la seguridad infantil tenga prioridad en cada etapa del desarrollo de la IA. Hasta la fecha, hemos hecho un esfuerzo significativo para minimizar el potencial de que nuestros modelos generen contenido que dañe a los niños, establecimos restricciones de edad para ChatGPT y colaboramos activamente con el Centro Nacional para Niños Desaparecidos y Explotados (NCMEC), Tech Coalition y otras organizaciones gubernamentales. y partes interesadas de la industria sobre cuestiones de protección infantil y mejoras a los mecanismos de presentación de informes.
Como parte de este esfuerzo de Seguridad por Diseño, nos comprometemos a:
-
Desarrollar: Desarrollar, construir y entrenar modelos de IA generativa que aborden de manera proactiva los riesgos de seguridad infantil.
-
Obtener de manera responsable nuestros conjuntos de datos de capacitación, detectar y eliminar material de abuso sexual infantil (CSAM) y material de explotación sexual infantil (CSEM) de los datos de capacitación e informar cualquier CSAM confirmado a las autoridades pertinentes.
-
Incorporar ciclos de retroalimentación y estrategias iterativas de pruebas de estrés en nuestro proceso de desarrollo.
- Implementar soluciones para abordar el uso indebido por parte de adversarios.
-
-
Desplegar: Publicar y distribuir modelos de IA generativa después de que hayan sido capacitados y evaluados para la seguridad infantil, brindando protección durante todo el proceso.
-
Combatir y responder a contenidos y conductas abusivas, e incorporar esfuerzos de prevención.
- Fomentar la propiedad de los desarrolladores en materia de seguridad desde el diseño.
-
-
Mantener: Mantenga la seguridad del modelo y de la plataforma continuando entendiendo y respondiendo activamente a los riesgos de seguridad infantil.
-
Comprometidos a eliminar nuevos AIG-CSAM generados por malos actores de nuestra plataforma.
- Invertir en investigación y soluciones tecnológicas futuras.
- Lucha contra CSAM, AIG-CSAM y CSEM en nuestras plataformas.
-
Este compromiso marca un paso importante para prevenir el uso indebido de las tecnologías de inteligencia artificial para crear o difundir material de abuso sexual infantil (AIG-CSAM) y otras formas de daño sexual contra niños. Como parte del grupo de trabajo, también acordamos publicar actualizaciones de progreso cada año.