A Sudáfrica se le eliminó su primer borrador de política nacional de inteligencia artificial luego del descubrimiento de citas ficticias en el documento que parecían ser generadas por IA.
La destitución, que surgió después de que se expusieran las referencias falsas del proyecto de política, es más que un problema burocrático; es precisamente el tipo de error que podría hacer que a una persona se le caiga la taza hasta la mitad de los labios.
Hay que preguntarse: espera, ¿la política destinada a regular la IA acaba de ser socavada por la IA? Esto es vergonzoso, sin duda, pero también instructivo en el sentido de que es una advertencia.
El ministro sudafricano de comunicaciones y tecnologías digitales, Solly Malatsi, dijo a una audiencia la semana pasada que sospecha que las citas generadas por IA se incluyeron accidentalmente en el borrador del documento de política sin la verificación y revisión adecuadas.
“La integridad del borrador de la política se ha visto comprometida”, dijo Malatsi en una declaración sobre el tema, lo que demuestra que no se necesita IA para darse cuenta de cuándo no es una buena idea hacer algo, como usarlo sin supervisión humana. Esa supervisión es el cinturón de seguridad: sólo cuando sufres un accidente automovilístico te das cuenta de que realmente llevabas puesto el cinturón de seguridad.
El borrador de la política tenía serias ambiciones: a principios de este mes, Sudáfrica propuso una serie de nuevas instituciones e incentivos destinados a fomentar el desarrollo y la innovación de la IA en su país, incluido el establecimiento de una Comisión Nacional de IA, una Junta de Ética de la IA y una Autoridad Reguladora de la IA, además de la provisión de incentivos fiscales, subvenciones y subsidios que podrían incentivar el desarrollo local de la IA.
En otras palabras, Pretoria quería estar en la primera línea de la adopción de la inteligencia artificial en África, algo que requerirá no sólo que el gobierno se ponga en orden, sino también evitar la apariencia de que se está moviendo rápidamente sin una verificación adecuada.
La alarma se disparó después de que News24 revelara que algunas citas en el borrador aparentemente eran inventadas. Esto es importante porque las referencias falsas no sólo hacen que las citas sean más difíciles de encontrar o verificar.
En cambio, dan credibilidad académica a afirmaciones espurias, proporcionan excusas para el mal comportamiento y engañan al público haciéndole creer que una política se basa en hechos cuando en realidad son sólo humo y espejos.
Para una política sobre ética, prejuicios, soberanía de datos y derechos digitales, no sería una mancha trivial, sería una mancha que dejaría una huella en la memoria de muchas personas.
El punto más importante no es que Sudáfrica deba dejar de intentar gobernar la inteligencia artificial. Nada de eso. Sudáfrica ya ha comenzado a construir la infraestructura y la capacidad institucional necesarias, a través de su Marco de Política Nacional de IA, abierto al comentario público en 2024 para discutir las oportunidades económicas y los dilemas de gobernanza de la IA. No deberíamos olvidar eso.
A pesar de todas las cuestiones que puedan surgir en torno al borrador retirado, persiste la necesidad de gobernar la IA. La IA ya está impactando las finanzas, la educación, el sector público y nuestros medios; Esperar que las regulaciones puedan esperar será una ilusión disfrazada de paciencia.
Esto también destaca una consideración importante para todas las agencias gubernamentales, bufetes de abogados, universidades y salas de redacción que estén considerando utilizar IA generativa. Asegúrate de ser la última línea de defensa ante cualquier cosa que envíes. Es un poco obvio, lo sé, pero ahí es exactamente cuando las cosas se desmoronan.
Si el borrador se ve bien, las referencias parecen académicas y el lenguaje parece sólido, todos tienden a pensar que debe haber sido revisado. Y entonces es cuando todo volverá en tu contra.
La credibilidad se hace añicos fácilmente, y una vez que se sospecha que un borrador de política se basa en ficción, el debate no se centra sólo en “qué” dice la política sino en “quién verificó” el material original.
¿Qué pudo haber pasado desapercibido? La cuestión, entonces, es de credibilidad, más que de vergüenza política, aunque hay mucha vergüenza política.
Sin embargo, la decisión de Malatsi de rescindir el borrador de la propuesta de política fue la correcta, incluso si hacerlo causaba vergüenza y dolor político. Un mejor enfoque es que una estrategia nacional de inteligencia artificial (IA) se base en fuentes sólidas en lugar de citas erróneas que nadie cuestionó. Bueno, obviamente lo eran, como lo muestran los ejemplos anteriores.
Sudáfrica tiene la oportunidad de aprovechar una situación tan embarazosa garantizando que los borradores de propuestas de políticas pasen por controles de referencia independientes y que se publiquen los registros históricos de revisiones de políticas.
Además, debería ser obligatorio que se realice intervención humana en las etapas finales del proceso de redacción para garantizar que el documento final sea correcto antes de ser consultado públicamente.
Sudáfrica también necesita directrices más estrictas sobre cómo y cuándo se puede utilizar la IA en las propuestas de políticas. Puede que no genere titulares, pero es esencial para la gobernanza de políticas, particularmente en la gobernanza de la IA.