La IA necesita reglas, pero ¿quién podrá establecerlas?

Alrededor de 150 líderes gubernamentales y de la industria de todo el mundo, incluida la vicepresidenta Kamala Harris y el multimillonario Elon Musk, llegaron a Inglaterra esta semana para la Cumbre de Seguridad de la IA en el Reino Unido. La reunión sirvió como punto focal para una conversación global sobre cómo regular la inteligencia artificial. Pero para algunos expertos, también destacó el enorme papel que las empresas de IA están desempeñando en esa conversación, a expensas de muchas que podrían verse afectadas pero que carecen de un interés financiero en el éxito de la IA.

El 1 de noviembre representantes de 28 países y la Unión Europea firmaron un pacto llamado la Declaración de Bletchley (llamado así por el lugar de celebración de la cumbre, Bletchley Park en Bletchley, Inglaterra), en el que acordaron seguir deliberando sobre cómo implementar la IA de forma segura. Pero para uno de cada 10 participantes del foro, muchos de los cuales representaban organizaciones de la sociedad civil, la conversación que tuvo lugar en el Reino Unido no ha sido lo suficientemente buena.

Tras la Declaración de Bletchley, 11 organizaciones presentes publicaron un carta abierta decir que la cumbre no estaba haciendo ningún favor al mundo al centrarse en riesgos potenciales futuros—como los terroristas o los ciberdelincuentes que cooptan la IA generativa o la idea más de ciencia ficción de que la IA podría volverse sensible, liberarse del control humano y esclavizarnos a todos. La carta decía que la cumbre pasó por alto la ya Riesgos reales y presentes de la IA.incluida la discriminación, el desplazamiento económico, la explotación y otros tipos de prejuicios.

“Nos preocupaba que el enfoque limitado de la cumbre en los daños a la seguridad a largo plazo pudiera distraer la atención de la urgente necesidad de que los formuladores de políticas y las empresas aborden las formas en que los sistemas de IA ya están impactando los derechos de las personas”, dice Alexandra Reeve Givens, una de las firmantes de la declaración y directora ejecutiva de el Centro para la Democracia y la Tecnología (CDT), una organización sin fines de lucro. Dado que la IA se desarrolla tan rápidamente, dice, centrarse en reglas para evitar riesgos futuros teóricos requiere un esfuerzo que muchos consideran que podría invertirse mejor en redactar una legislación que aborde los peligros aquí y ahora.

Algunos de estos daños surgen porque los modelos generativos de IA se entrenan con datos. procedente de Internet, que contienen sesgos. Como resultado, tales modelos producen resultados que favorecen a ciertos grupos y perjudican a otros. Si le pide a una IA generadora de imágenes que produzca representaciones de directores ejecutivos o líderes empresariales, por ejemplo, mostrará a los usuarios fotografías de hombres blancos de mediana edad. La propia investigación del CDT, por su parte, destaca cómo los que no hablan inglés están en desventaja mediante el uso de IA generativa porque la mayoría de los datos de entrenamiento de los modelos están en inglés.

Sin embargo, los escenarios de riesgo futuro más lejanos son claramente una prioridad para algunas empresas poderosas de IA, incluyendo OpenAI, que desarrolló ChatGPT. Y muchos de los que firmaron la carta abierta creen que la industria de la IA tiene una influencia enorme en la configuración de eventos importantes y relevantes, como la cumbre de Bletchley Park. Por ejemplo, el programa oficial de la cumbre describió la actual serie de herramientas de IA generativa con la frase “IA de frontera”, que hace eco de la terminología utilizada por la industria de la IA para nombrar a su organismo de control autocontrolado, el Foro del modelo de frontera.

Al ejercer influencia en tales eventos, las empresas poderosas también desempeñan un papel desproporcionado en la configuración de la política oficial de IA, un tipo de situación llamada “captura regulatoria”. Como resultado, esas políticas tienden a priorizar los intereses de las empresas. “En aras de tener un proceso democrático, este debería ser independiente y no una oportunidad para ser capturado por las empresas”, dice Marietje Schaake, directora de política internacional del Centro de Política Cibernética de la Universidad de Stanford.

Por ejemplo, la mayoría de las empresas privadas no dan prioridad a la IA de código abierto (aunque hay excepciones, como el modelo LLaMA de Meta). En Estados Unidos, dos días antes del inicio de la cumbre del Reino Unido, El presidente Joe Biden emitió una orden ejecutiva eso incluía disposiciones que algunos en el mundo académico consideraban que favorecían a los actores del sector privado a expensas de los desarrolladores de IA de código abierto. “Podría tener enormes repercusiones para el código abierto [AI], la ciencia abierta y la democratización de la IA”, afirma Mark Riedl, profesor asociado de informática en el Instituto de Tecnología de Georgia. El 31 de octubre la Fundación Mozilla, una organización sin fines de lucro emitió una carta abierta separada que enfatizó la necesidad de apertura y seguridad en los modelos de IA. Entre sus firmantes se encontraba Yann LeCun, profesor de IA en la Universidad de Nueva York y científico jefe de IA de Meta.

Algunos expertos sólo piden a los reguladores que extiendan la conversación más allá de la principal preocupación de las empresas de IA: el riesgo existencial en manos de algún futuro. inteligencia artificial general (AGI): a un catálogo más amplio de daños potenciales. Para otros, ni siquiera este alcance más amplio es suficiente.

“Si bien aprecio completamente el punto de que los riesgos de AGI son una distracción y la preocupación por la cooptación corporativa, estoy empezando a preocuparme de que incluso tratar de centrarme en los riesgos sea demasiado útil para las corporaciones a expensas de las personas”, dice Margaret Mitchell. , científico jefe de ética de la empresa de inteligencia artificial Hugging Face. (La empresa estuvo representada en la cumbre de Bletchley Park, pero la propia Mitchell estuvo en los EE. UU. en un foro simultáneo celebrado por el senador Chuck Schumer del estado de Nueva York en ese momento).

“La regulación de la IA debería centrarse en las personas, no en la tecnología”, afirma Mitchell. “Y eso significa [having] menos atención en ‘¿Qué podría hacer mal esta tecnología y cómo categorizamos eso?’ y un mayor enfoque en ‘¿Cómo deberíamos proteger a las personas?’” La cautela de Mitchell hacia el enfoque basado en el riesgo surgió en parte porque muchas empresas estaban muy dispuestas a suscribir ese enfoque en la cumbre del Reino Unido y otros eventos similares esta semana. “Inmediatamente me encendieron señales de alerta”, dice, y agrega que hizo un comentario similar en el foro de Schumer.

Mitchell aboga por adoptar un enfoque basado en los derechos para la regulación de la IA en lugar de uno basado en los riesgos. Lo mismo piensa Chinasa T. Okolo, miembro de la Brookings Institution, que asistió al evento en el Reino Unido. “Las principales conversaciones en la cumbre giran en torno a los riesgos que los ‘modelos de frontera’ representan para la sociedad”, dice, “pero dejan de lado los daños que la IA causa a los etiquetadores de datos, los trabajadores que posiblemente son los más esenciales para el desarrollo de la IA”.

Centrarse específicamente en los derechos humanos sitúa la conversación en un área donde los políticos y reguladores pueden sentirse más cómodos. Mitchell cree que esto ayudará a los legisladores a elaborar leyes con confianza para proteger a más personas que corren el riesgo de sufrir daños por la IA. También podría ofrecer un compromiso para las empresas tecnológicas que tanto desean proteger sus posiciones actuales y sus miles de millones de dólares en inversiones. “Al centrarse el gobierno en los derechos y objetivos, se puede combinar una regulación de arriba hacia abajo, donde el gobierno está más calificado”, dice, “con una regulación de abajo hacia arriba, donde los desarrolladores están más calificados”.