La semana pasada, los legisladores de la Unión Europea (UE) aprobaron abrumadoramente una legislación para regular la inteligencia artificial en un intento de guiar a los países miembros a medida que la industria crece rápidamente.
El Ley de inteligencia artificial (Ley AI) fue aprobada por 523 votos a favor y 46 en contra, con 49 votos no emitidos. Según el parlamento de la UE, la legislación es destinado a “asegurar[] Sin embargo, es mucho más probable que la ley limite la innovación, especialmente si se considera que regula una tecnología que cambia rápidamente y no se comprende bien.
“Para introducir un conjunto proporcionado y eficaz de normas vinculantes para los sistemas de IA, se debe seguir un enfoque claramente definido basado en el riesgo”, dice la ley. lee.
La legislación clasifica los sistemas de IA en cuatro categorías. Se prohibirán los sistemas considerados de alto riesgo inaceptable, incluidos aquellos que buscan manipular el comportamiento humano o los que se utilizan para la puntuación social. También está prohibido, de manera refrescante, el uso de la identificación biométrica en espacios públicos con fines policiales, con algunas excepciones.
El gobierno someterá los sistemas de alto riesgo, como la infraestructura y los servicios públicos de alta prioridad, a evaluación y supervisión de riesgos. Las aplicaciones de riesgo limitado y la IA de uso general, incluidos los modelos básicos como ChatGPT, deberán cumplir con los requisitos de transparencia. Los sistemas de inteligencia artificial de riesgo mínimo, que los legisladores esperan que constituyan la mayor parte de las aplicaciones, quedarán sin regulación.
En suma Además de abordar el riesgo para “evitar resultados indeseables”, la ley pretende “establecer una estructura de gobernanza a nivel europeo y nacional”. El Oficina Europea de IA, descrito como el centro de experiencia en IA en toda la UE, se creó para implementar la Ley de IA. También crea una junta de IA que será el principal organismo asesor de la UE sobre esta tecnología.
Los costos de infringir la ley no son una broma, “que van desde multas de 35 millones de euros o el 7 por ciento de los ingresos globales hasta 7,5 millones de euros o el 1,5 por ciento de los ingresos, dependiendo de la infracción y el tamaño de la empresa”, según Holanda y Caballero.
En términos prácticos, la regulación de la IA ahora estará centralizada en todos los países miembros de la Unión Europea. El objetivo, según la ley, es establecer un “estándar armonizado”, una medida habitualmente utilizada en la UE, para dicha regulación.
La UE está lejos de ser el único organismo rector que aprueba legislación sobre inteligencia artificial para controlar la floreciente tecnología; China introdujo su temporal medidas en 2023 y el presidente Joe Biden firmó un orden ejecutiva el 30 de octubre de 2023, controlar el desarrollo de la IA.
“Para hacer realidad la promesa de la IA y evitar el riesgo, necesitamos gobernar esta tecnología”, Biden dijo posteriormente en un evento de la Casa Blanca. Aunque el Congreso de los EE. UU. aún debe elaborar una legislación a largo plazo, la Ley de IA de la UE podría inspirarles para hacer lo mismo. Las palabras de Biden ciertamente suenan similares al enfoque de la UE.
Pero a los críticos de la nueva ley de la UE les preocupa que el conjunto de reglas voluntad sofocar la innovación y la competencia, limitando las opciones de los consumidores en el mercado.
“Podemos decidir regular más rápidamente que nuestros principales competidores”, dicho Emmanuel Macron, el presidente de Francia, “pero estamos regulando cosas que aún no hemos producido ni inventado. No es una buena idea”.
Anand Sanwal, director ejecutivo de CB Insights, hizo eco la idea: “La UE tiene ahora más regulaciones sobre IA que empresas significativas de IA”. Mientras tanto, Barbara Prainsack y Nikolaus Forgó, profesores de la Universidad de Viena, escribieron para Medicina de la naturaleza que la Ley de IA ve la tecnología estrictamente a través de la lente del riesgo sin reconocer el beneficio, lo que “obstaculizará el desarrollo de nueva tecnología sin proteger al público”.
La legislación de la UE no es del todo mala. Sus restricciones al uso de la identificación biométrica, por ejemplo, abordan una preocupación real por las libertades civiles y son un paso en la dirección correcta. Menos ideal es que la ley haga que muchos excepciones para casos de seguridad nacional, permitiendo a los estados miembros interpretar libremente qué es exactamente lo que genera preocupaciones sobre la privacidad.
Aún está por determinar si los legisladores estadounidenses adoptarán un enfoque similar basado en el riesgo para la regulación de la IA, pero no es descabellado pensar que puede ser sólo cuestión de tiempo antes de que el impulso para una ley de este tipo se materialice en el Congreso. Si esto sucede, es importante ser prudentes a la hora de fomentar la innovación, así como seguir salvaguardando las libertades civiles.