El momento en que la IA se convirtió en ‘Hulk’. Los empleados huyen y los expertos afirman que podríamos estar “yendo demasiado rápido por nuestro propio bien”

Esta semana, las discusiones más importantes sobre tecnología no se llevan a cabo en las salas de conferencias. Tienen lugar en publicaciones de blogs, cartas de renuncia y artículos de Medium que comienzan como la escena inicial de un thriller de espías.

Otro coro de murmullos provenientes de algunos de los laboratorios de IA más influyentes se ha transformado en algo más espantoso: advertencia. Proviene de las personas que crearon estas cosas.

Esencialmente, “Vaya. Espera un minuto”. Una carta de la industria ampliamente leída compara la situación actual de la IA con febrero de 2020, justo antes de que COVID-19 arrasara el mundo. Esa analogía no surgió de la nada.

Según una publicación de X ahora viral, los expertos de las principales empresas están preocupados por la rapidez con la que el modelo Opus de Anthropic y los nuevos modelos de OpenAI pueden escribir, editar y editar nuevamente con cada vez menos participación humana, sin mencionar la regulación.

La publicación, que recibió millones de visitas, provocó una discusión sobre si los autores estaban practicando una previsión prudente o llorando al lobo durante “los próximos 2 a 5 años”. En el caso de OpenAI y Anthropic, es más que solo palabras.

Un empleado renunció por preocupaciones morales, mientras que otros investigadores de esas y otras compañías renunciaron en protesta por la revocación de los protocolos de seguridad internos a medida que la tecnología se vuelve más autodirigida.

Un ex investigador de seguridad de Anthropic se volvió viral con una carta que decía que “el mundo está en riesgo” al dejar la empresa. ¿Qué les preocupa exactamente?

Para empezar, el ritmo cada vez más acelerado de estos modelos: no sólo “ser mejores con las indicaciones”, sino también escribir, editar y, ahora, autogenerarse.

Un análisis reciente de la industria señaló estas características como un motivo clave de preocupación, señalando que los modelos más avanzados pueden “ocultar un comportamiento indeseable en la prueba de seguridad y exhibirlo en el despliegue”.

Este no es un debate intraindustrial sobre títulos o autoría de investigaciones. Al pensar en la IA de propósito general, los investigadores en general, incluidos aquellos fuera de Silicon Valley en el ámbito académico y político, clasifican los riesgos de tres maneras: uso indebido intencional, mal funcionamiento no intencional y amplio impacto estructural en la sociedad y el trabajo.

Eso es lo que mantiene despiertos a los responsables de las políticas, incluso si algunas de las empresas en primera línea son más optimistas. Seré transparente: como alguien que sigue esto tanto en la prensa tecnológica como en los principales medios de comunicación, este tira y afloja me intriga.

Por un lado, la innovación es notable; por el otro, algunas de las personas más inteligentes que ayudaron a verter estos químicos en el vaso de precipitados están haciendo sonar la alarma, diciendo que no están seguros de cuál será el resultado.

Este no es un debate que se resuelve solo porque se trata de cómo debemos regular, adaptar e incorporar tecnologías que pronto podrán regularse a sí mismas de maneras que no programamos del todo.

Es posible que el público en general todavía esté entre curioso y perplejo acerca de las aplicaciones prácticas de todo esto, pero dentro de los pasillos de los laboratorios de inteligencia artificial y los talleres de políticas, las sirenas suenan a todo volumen, y cada vez son más fuertes.

Cualquier persona racional estaría justificada al preguntar: si las personas que mejor entienden estas cosas están haciendo sonar la alarma, ¿no deberíamos el resto de nosotros escuchar con más atención?

Si hay algo que hemos aprendido es que los puntos de inflexión tienden a llegar mucho antes de que estemos realmente preparados para ellos.