España está tomando medidas enérgicas contra Deepfakes «Euro Weekly News

El nuevo borrador de la ley de España tiene como objetivo combatir los defectos profundos y otras información errónea generada por la IA al imponer fuertes multas a las empresas que etiquetan mal el contenido. Crédito: Shutterstock, LinaImages

España se está tomando en serio el abordaje fallas y información errónea. Un nuevo proyecto de ley del Consejo de Ministros exige multas de hasta 35 millones de euros si el contenido generado por IA no está etiquetado de manera clara y precisa.

La medida es parte de una ofensiva más amplia en las prácticas de IA poco ética, y podría hacer de España uno de los reguladores de IA más estrictos de Europa.

La importancia de etiquetar contenido generado por IA

La inteligencia artificial está evolucionando rápidamente, pero no siempre se usa para el bien mayor. Deepfakes y desinformación en línea han provocado alarma, lo que llevó al gobierno español a insistir en la transparencia. Según esta ley propuesta, el etiquetado incorrecto de los puestos y productos impulsados ​​por la IA se consideraría un delito grave, con multas que van desde € 7.5 millones a 35 millones de euros o del 2 al 7 por ciento de la facturación global de una empresa. Esa es una factura considerable, aunque las empresas y las nuevas empresas más pequeñas pueden enfrentar sanciones reducidas para que la innovación no se detenga.

El ministro de transformación digital, Óscar López, enfatiza que la IA debería resolver problemas en lugar de crearlos, señalando usos como investigación médica y planificación urbana. El plan de España también se alinea con la propia Ley AI de la UE, que ya impone requisitos estrictos a los sistemas de alto riesgo.

El proyecto de ley AI de España: tomar medidas enérgicas contra tácticas subliminales y perfiles discriminatorios

La ley no solo se dirige a la etiqueta incorrecta. También prohíbe a los sistemas de IA del uso de técnicas subliminales para manipular las decisiones de las personas sin su conocimiento. Esto incluye cualquier sonido o imagen oculta dirigida a los usuarios empujando en la dirección incorrecta. Una herramienta de IA que identifica silenciosamente a los jugadores vulnerables y los alienta a hacer apuestas sería fuera de los límites.

También hay una represión de la discriminación impulsada por la IA. El proyecto de ley evitaría que el software utilice datos biométricos o redes sociales para clasificar a las personas en función de la raza, la religión, las opiniones políticas o la orientación sexual. Es una respuesta a las preocupaciones de que los algoritmos podrían ser grupos de perfiles injustamente, especialmente en áreas como la vigilancia predictiva.

Los empleadores que dependen de la IA para rastrear la asistencia al personal necesitarían supervisión humana. Aquellos que se saltan ese paso de riesgo de riesgo que podrían alcanzar € 7.5 millones o del 1 al 2 por ciento de sus ganancias mundiales. Otra medida estricta permite al gobierno suspender cualquier sistema de IA vinculado a accidentes graves, como una mortalidad.

Siguientes pasos para la regulación de IA de España

El Congreso de Diputados de España aún necesita aprobar el proyecto de ley antes de que se convierta en ley. Si le dan luz verde, España probablemente se convertirá en uno de los reguladores más difíciles de la IA en Europa. A medida que la inteligencia artificial continúa desarrollándose, España parece decidida a garantizar que estas herramientas poderosas se usen éticamente, y que las empresas que rompen las reglas enfrentan consecuencias reales.

Encuentra más noticias sobre España