La regulación no necesariamente reprime la innovación, como afirman muchas empresas de tecnología, pero de hecho puede fomentar un lado más sostenible y ético de los procedimientos, dice Chirantan Chatterjee de la Escuela de Negocios de la Universidad de Sussex
A medida que llegamos al último trimestre de 2023, existe una impresión generalizada a nivel mundial de que, si bien el genio de la IA está fuera de la botella, es necesario regularlo; de lo contrario, puede haber consecuencias imprevistas. Una impresión que se ha acentuado con la aparición de la IA generativa. El genio no sólo podría desplazar empleos, sino que también podría causar caos, con una serie de elecciones importantes en el horizonte, contaminando el ecosistema con información errónea y falsificaciones profundas.
En este contexto, España acaba de crear la primera Agencia Europea de Supervisión de la IA, el primer ministro del Reino Unido, Rishi Sunak, ha hecho un llamado de atención sobre el establecimiento de estándares en seguridad de la IA con su propuesta de cumbre sobre IA para noviembre de 2023, mientras que el vicepresidente y presidente de Microsoft, Brad Smith, defendía la responsabilidad. Gobernanza de la IA en una visita reciente a la India.
Mientras tanto, los antirregulacionistas están inquietos por la idea, citando investigaciones que muestran que regulaciones como GDPR pueden haber cambiado negativamente la naturaleza y dirección de la actividad inventiva en los países de la Unión Europea. También citan otros canales a través de los cuales la regulación puede perjudicar la innovación. Por ejemplo, cómo las leyes laborales francesas pueden haber impactado la actividad inventiva en empresas bajo un cierto umbral de tamaño dependiendo de si estaban participando en innovación incremental o radical. Mi propia investigación en la industria biofarmacéutica estadounidense también muestra que la regulación podría generar beneficios a corto plazo para el bienestar del consumidor, mientras que a largo plazo puede ser perjudicial para los incentivos a la innovación y perjudicar también a las sociedades.
El debate sobre regulación e innovación no es nuevo y tiene una larga historia que se remonta, por ejemplo, a la construcción de ferrocarriles en el Reino Unido y Estados Unidos, y a otros eventos de difusión tecnológica. También hemos visto conversaciones sobre cómo regular dadas las implicaciones para la innovación ambiental. Si bien muchos han asumido posiciones firmes al respecto, otros, como el profesor de Harvard Michael Porter, han sido más matizados, argumentando que puede haber una U invertida en la relación entre regulación e innovación. En los primeros días de la innovación en una industria, la regulación puede ser perjudicial, pero en años posteriores, la regulación puede en realidad inducir una innovación más responsable y sostenible. Por lo tanto, la regulación tiene en realidad un impacto positivo.
Planteada como la “hipótesis de Porter” en su artículo fundamental de 1991, la idea de que la regulación puede ser útil para la innovación es muy relevante para las conversaciones que se están produciendo hoy en todo el mundo sobre la regulación de la IA. En particular, existen implicaciones sectoriales sobre cómo la IA generativa puede tener profundas consecuencias en áreas como la atención sanitaria y la educación. Por ejemplo, la regulación, impuesta externamente o diseñada conjuntamente entre formuladores de políticas y empresas, podría garantizar que la innovación “segura” genere mejores resultados sanitarios y educativos a medida que ciertos sectores adopten la IA.
Nuestra propia investigación publicada en 2016 también muestra que en ciertos contextos, como en el caso de los tintes y los productos químicos, la regulación puede en realidad inducir causalmente una innovación positiva en las fases iniciales. Traducido al contexto de la IA, esto puede significar que la regulación podría afectar la forma en que la innovación “segura” se expande en la cadena de valor de las empresas que realizan más investigación y desarrollo básico en IA.
Un aspecto notable relacionado también es la variación país por país en las conversaciones sobre regulación e innovación. En Estados Unidos, por ejemplo, existe un enfoque más híbrido, centralizado y descentralizado, mediante el cual los estados individuales adoptan legislación sobre inteligencia artificial junto con enfoques regulatorios federales de la administración Biden. Mientras tanto, en China parece haber un enfoque más centralizado impulsado por Beijing en el frente regulatorio de la IA. Así parece ser el caso en la Unión Europea, mientras que otros, como la India, todavía parecen estar tratando de ponerse al día en su posición regulatoria en lo que respecta a la IA.
En general, esto sugiere que, si bien parece haber un reconocimiento global de la necesidad de regular la IA, todavía no está claro en qué márgenes debe implementarse y, lo que es más importante, cómo puede armonizarse a nivel transnacional y subnacional.
En general, unos 11 meses después del lanzamiento de ChatGPT, el mundo todavía parece estar luchando por diseñar regulaciones para la IA, y la IA generativa en particular. También están surgiendo conversaciones sobre los efectos indirectos de la IA generativa en las leyes globales de propiedad intelectual, especialmente para las industrias creativas.
Pero los países de todo el mundo están gradualmente afrontando todo esto, algunos de manera más centralizada, otros adoptando un enfoque más descentralizado y orientado a la innovación. Las empresas, grandes y pequeñas, parecen estar despertando a las consecuencias adversas de la IA no regulada y los directores de experiencia hacen declaraciones sobre ser responsables en su actividad inventiva interna en IA.
Teniendo en cuenta todo esto, probablemente sea hora de que los responsables de las políticas aprecien la dinámica de la relación entre regulación e innovación que se remonta a la hipótesis de Porter: la idea de que la regulación puede ser útil para la innovación. Quizás también haya llegado el momento de crear organismos de evaluación, como lo hacen en la regulación biofarmacéutica, donde monitorean los eventos adversos posteriores al lanzamiento y aplican etiquetas y advertencias de recuadro negro a los productos y medicamentos médicos. Estos organismos de evaluación pueden luego revisar cualquier decisión si hay una consecuencia adversa de una regulación excesiva o laxa, y así garantizar que la IA esté regulada por el bien de todos.
Sobre el Autor
El profesor Chirantan Chatterjee es profesor de Economía de la Innovación y la Salud Global (SPRU – Unidad de Investigación de Políticas Científicas) – Escuela de Negocios de la Universidad de Sussex. Su trabajo esta en www.chirantanchatterjee.com