Desde Silicon Valley hasta la ONU, la cuestión de cómo asignar culpas cuando la IA falla ya no es una cuestión regulatoria esotérica, sino una cuestión de importancia geopolítica.
Esta semana, el Secretario General de las Naciones Unidas planteó esa pregunta, destacando una cuestión que es central en los debates sobre la ética y la regulación de la IA. Cuestionó quién debería ser considerado responsable cuando los sistemas de IA causan daño, discriminan o van más allá de la intención humana.
Los comentarios fueron una clara advertencia a los líderes nacionales, así como a los ejecutivos de la industria tecnológica, de que las capacidades de la IA están superando las regulaciones, como se informó anteriormente.
Pero no fue sólo la advertencia lo que fue notable. También lo fue el tono. Había una sensación de exasperación.
Incluso la desesperación. Si se utilizan máquinas impulsadas por IA para tomar decisiones que involucran vida o muerte, medios de vida, fronteras y seguridad, entonces alguien no puede debilitarse diciendo que todo es demasiado complicado.
El Secretario General dijo que la responsabilidad “debe ser compartida entre desarrolladores, implementadores y reguladores”.
La idea resuena con sospechas arraigadas desde hace mucho tiempo en la ONU sobre la fuerza tecnológica desenfrenada, que se ha estado filtrando a través de las deliberaciones de la ONU sobre gobernanza digital y derechos humanos.
Ese momento es importante. Mientras los gobiernos intentan redactar regulaciones sobre IA en un momento en que la tecnología cambia tan rápidamente, Europa ya ha tomado la iniciativa en la aprobación de leyes ambiciosas que se aplicarán a productos de IA de alto riesgo, estableciendo un estándar regulatorio que probablemente sirva como un faro –o una advertencia– para otros países.
Pero, sinceramente, las leyes escritas por página no van a cambiar la dinámica del poder. Las palabras del Secretario General llegan al mundo frente a las IA que actualmente se utilizan en la investigación de antecedentes migratorios, la vigilancia policial predictiva, la solvencia crediticia y las decisiones militares.
La sociedad civil ha estado advirtiendo sobre los peligros de la IA si no hay rendición de cuentas. Será el chivo expiatorio perfecto para la toma de decisiones humanas con repercusiones muy humanas: “el algoritmo me obligó a hacerlo”.
También debemos mencionar que también existe un problema geopolítico que apenas se discute: ¿Qué pasará si las regulaciones de explicabilidad de la IA en un país son incompatibles con las de un país vecino?
¿Qué pasará cuando la IA traspase las fronteras? ¿Podemos hablar de los derechos para exportar IA? Antonio Guterres, secretario general de la ONU, habló sobre la necesidad de directrices universales para desarrollar y utilizar la IA, de forma muy parecida a como se hace con las leyes nucleares y climáticas.
Y ésta no es una tarea fácil en un mundo con una desintegración de las relaciones internacionales y de los acuerdos internacionales, que se encamina hacia una situación de total desregulación.
¿Mi interpretación? Esto no era diplomacia hablando. Este fue un discurso muy estricto. No fue un mensaje complicado, incluso si es un problema complicado de resolver: la IA no está exenta de responsabilidad sólo porque sea inteligente, rápida o lucrativa.
Debe haber una entidad ante quien rendir cuentas de sus resultados. Y cuanto más tiempo pase el mundo decidiendo cuál será esa entidad, más dolorosa y compleja será la decisión.