Un nuevo documento técnico investiga modelos y funciones de instituciones internacionales que podrían ayudar a gestionar oportunidades y mitigar los riesgos de la IA avanzada.
La creciente conciencia sobre el impacto global de la inteligencia artificial (IA) avanzada ha inspirado debates públicos sobre la necesidad de estructuras de gobernanza internacional para ayudar a gestionar las oportunidades y mitigar los riesgos involucrados.
Muchas discusiones se han basado en analogías con la OACI (Organización de Aviación Civil Internacional) en aviación civil; CERN (Organización Europea para la Investigación Nuclear) en física de partículas; OIEA (Agencia Internacional de Energía Atómica) en tecnología nuclear; y organizaciones intergubernamentales y de múltiples partes interesadas en muchos otros ámbitos. Y, sin embargo, si bien las analogías pueden ser un comienzo útil, las tecnologías que surjan de la IA serán diferentes a la aviación, la física de partículas o la tecnología nuclear.
Para tener éxito con la gobernanza de la IA, debemos comprender mejor:
- Qué beneficios y riesgos específicos debemos gestionar a nivel internacional.
- Qué funciones de gobernanza requieren esos beneficios y riesgos.
- Qué organizaciones pueden proporcionar mejor esas funciones.
Nuestro último artículocon colaboradores de la Universidad de Oxford, la Universidad de Montreal, la Universidad de Toronto, la Universidad de Columbia, la Universidad de Harvard, la Universidad de Stanford y OpenAI, aborda estas preguntas e investiga cómo las instituciones internacionales podrían ayudar a gestionar el impacto global del desarrollo de la IA de vanguardia y hacer Asegúrese de que los beneficios de la IA lleguen a todas las comunidades.
El papel fundamental de las instituciones internacionales y multilaterales
El acceso a determinadas tecnologías de IA podría mejorar en gran medida la prosperidad y la estabilidad, pero es posible que los beneficios de estas tecnologías no se distribuyan equitativamente ni se centren en las mayores necesidades de las comunidades subrepresentadas o del mundo en desarrollo. El acceso inadecuado a los servicios de Internet, la potencia informática o la disponibilidad de capacitación o experiencia en aprendizaje automático también pueden impedir que ciertos grupos se beneficien plenamente de los avances en IA.
Las colaboraciones internacionales podrían ayudar a abordar estos problemas alentando a las organizaciones a desarrollar sistemas y aplicaciones que aborden las necesidades de las comunidades desatendidas y mejorando la educacióninfraestructura y obstáculos económicos para que dichas comunidades hagan pleno uso de la tecnología de IA.
Además, pueden ser necesarios esfuerzos internacionales para gestionar los riesgos que plantean las potentes capacidades de la IA. Sin las salvaguardias adecuadas, algunas de estas capacidades –como el desarrollo automatizado de software, la investigación en química y biología sintética, y la generación de textos y videos– podrían usarse indebidamente para causar daño. Los sistemas avanzados de IA también pueden fallar de maneras difíciles de anticipar, creando riesgos de accidentes con consecuencias potencialmente internacionales si la tecnología no se implementa de manera responsable.
Las instituciones internacionales y de múltiples partes interesadas podrían ayudar a promover protocolos de desarrollo e implementación de IA que minimicen dichos riesgos. Por ejemplo, podrían facilitar el consenso global sobre las amenazas que las diferentes capacidades de IA representan para la sociedad y establecer estándares internacionales en torno a la identificación y el tratamiento de modelos con capacidades peligrosas. Las colaboraciones internacionales en investigación de seguridad también mejorarían nuestra capacidad para hacer que los sistemas sean confiables y resistentes al uso indebido.
Por último, en situaciones en las que los Estados tienen incentivos (por ejemplo, derivados de la competencia económica) para socavar los compromisos regulatorios de cada uno, las instituciones internacionales pueden ayudar a apoyar e incentivar las mejores prácticas e incluso monitorear el cumplimiento de las normas.
Cuatro posibles modelos institucionales
Exploramos cuatro modelos institucionales complementarios para apoyar las funciones de coordinación y gobernanza global:
- Un intergubernamental Comisión de IA fronteriza podría generar un consenso internacional sobre las oportunidades y los riesgos de la IA avanzada y cómo se pueden gestionar. Esto aumentaría la conciencia pública y la comprensión de las perspectivas y problemas de la IA, contribuiría a una explicación científicamente fundamentada del uso de la IA y la mitigación de riesgos, y sería una fuente de experiencia para los responsables de la formulación de políticas.
- Un acuerdo intergubernamental o de múltiples partes interesadas. Organización de gobernanza avanzada de IA podría ayudar a internacionalizar y alinear los esfuerzos para abordar los riesgos globales de los sistemas avanzados de IA estableciendo normas y estándares de gobernanza y ayudando en su implementación. También puede realizar funciones de seguimiento del cumplimiento de cualquier régimen de gobernanza internacional.
- A Colaboración de IA de frontera podría promover el acceso a la IA avanzada como una asociación público-privada internacional. Al hacerlo, ayudaría a las sociedades desatendidas a beneficiarse de la tecnología de IA de vanguardia y promovería el acceso internacional a la tecnología de IA para objetivos de seguridad y gobernanza.
- Un Proyecto de seguridad de IA podría reunir a investigadores e ingenieros destacados y proporcionarles acceso a recursos informáticos y modelos avanzados de IA para investigar mitigaciones técnicas de los riesgos de la IA. Esto promovería la investigación y el desarrollo de la seguridad de la IA al aumentar su escala, recursos y coordinación.
Desafíos operativos
Quedan abiertas muchas preguntas importantes sobre la viabilidad de estos modelos institucionales. Por ejemplo, una Comisión sobre IA Avanzada enfrentará importantes desafíos científicos dada la extrema incertidumbre sobre las trayectorias y capacidades de la IA y la limitada investigación científica sobre cuestiones de IA avanzada hasta la fecha.
El rápido ritmo de progreso de la IA y la capacidad limitada del sector público en cuestiones fronterizas de la IA también podrían dificultar que una Organización Avanzada de Gobernanza de la IA establezca estándares que se mantengan al día con el panorama de riesgos. Las numerosas dificultades de la coordinación internacional plantean interrogantes sobre cómo se incentivará a los países a adoptar sus estándares o aceptar su seguimiento.
Del mismo modo, los numerosos obstáculos para que las sociedades aprovechen plenamente los beneficios de los sistemas avanzados de IA (y otras tecnologías) pueden impedir que una Frontier AI Collaborative optimice su impacto. También puede haber una tensión difícil de gestionar entre compartir los beneficios de la IA y prevenir la proliferación de sistemas peligrosos.
Y para el Proyecto de seguridad de IA, será importante considerar cuidadosamente qué elementos de la investigación de seguridad se llevan a cabo mejor a través de colaboraciones versus los esfuerzos individuales de las empresas. Además, un proyecto podría tener dificultades para garantizar el acceso adecuado a los modelos más capaces para realizar investigaciones de seguridad por parte de todos los desarrolladores relevantes.
Dadas las inmensas oportunidades y desafíos globales que presentan los sistemas de IA en el horizonte, se necesita un mayor debate entre los gobiernos y otras partes interesadas sobre el papel de las instituciones internacionales y cómo sus funciones pueden promover la gobernanza y la coordinación de la IA.
Esperamos que esta investigación contribuya a aumentar las conversaciones dentro de la comunidad internacional sobre formas de garantizar que se desarrolle una IA avanzada para beneficio de la humanidad.