¿Qué es Mythos y por qué los expertos están preocupados por el modelo de IA de Anthropic?

¿Qué es Mythos, el modelo de IA inédito de Anthropic, y qué tan preocupados deberíamos estar?

La compañía dice que Mythos es demasiado peligroso para publicarlo. Los expertos en ciberseguridad coinciden en que las capacidades del modelo son importantes, pero no todos creen en las afirmaciones más alarmantes.

Un primer plano de la pantalla de un teléfono inteligente que muestra el texto

En lugar de un lanzamiento público, Anthropic está utilizando su iniciativa Project Glasswing para ofrecer a un pequeño grupo de organizaciones acceso a su modelo Mythos AI para pruebas de ciberseguridad.

Jonathan Raa/NurPhoto vía Getty Images

A raíz del anuncio de Anthropic de su último modelo de inteligencia artificial, Mythos, el 7 de abril, la compañía tomó una decisión inusual: negarse a lanzarlo al público. Desde que OpenAI retuvo temporalmente su modelo GPT-2 en 2019, ningún desarrollador importante ha considerado un sistema demasiado peligroso para el público. Más de una semana después, esa elección todavía resuena en los círculos financieros y regulatorios.

“Las consecuencias (para las economías, la seguridad pública y la seguridad nacional) podrían ser graves”, dijo Anthropic en su sitio web. Pero mientras los funcionarios se esfuerzan por evaluar las implicaciones de las capacidades de piratería sin precedentes del modelo, los expertos en ciberseguridad están divididos sobre si Mythos marca una ruptura importante con lo que vino antes o un paso esperado en un camino ya preocupante.

Anthropic no respondió a una solicitud de comentarios de Scientific American.

Sobre el apoyo al periodismo científico

Si está disfrutando de este artículo, considere apoyar nuestro periodismo galardonado suscribiéndose. Al comprar una suscripción, ayudas a garantizar el futuro de historias impactantes sobre los descubrimientos y las ideas que dan forma a nuestro mundo actual.

Un documento técnico de 245 páginas publicado junto con el anuncio describe lo que la empresa presenta como un gran salto en capacidad. El modelo opera como un ingeniero de software senior, demostrando capacidad para detectar errores sutiles y corregir errores por sí mismo. También obtuvo 31 puntos porcentuales más que el modelo de vanguardia anterior de Anthropic, Opus 4.6, en la Olimpiada de Matemáticas USAMO 2026, una competencia agotadora de dos días basada en pruebas.

Pero esa misma destreza de codificación hace de Mythos un arma ofensiva formidable, y Anthropic dice que puede superar a todos, excepto a los humanos más capacitados, en la identificación y explotación de vulnerabilidades de software. En las pruebas, encontró fallas críticas en todos los sistemas operativos y navegadores web más utilizados. De esas vulnerabilidades, el 99 por ciento aún no ha sido parcheada. Y Anthropic ha revelado sólo una fracción de lo que dice haber encontrado. Evaluaciones independientes sugieren que el peligro es real, aunque más limitado de lo que la compañía ha insinuado: una evaluación realizada por el Instituto de Seguridad de IA (AISI) del Reino Unido, al que se le concedió acceso temprano, encontró que el modelo tuvo éxito en tareas de piratería de nivel experto el 73 por ciento de las veces. Antes de abril de 2025, ningún modelo de IA podía completar esas tareas.

En lugar de un lanzamiento público, Anthropic está limitando el acceso a un grupo de organizaciones para usarlo de manera defensiva, permitiéndoles escanear sus redes y solucionar problemas antes de que las fallas se vuelvan de conocimiento público. Esa iniciativa se llama Proyecto Glasswing. El grupo inicial incluye a Microsoft, Google, Apple, Amazon Web Services, JPMorgan Chase y Nvidia.

Mythos es el primero de una nueva cosecha de modelos de IA que han sido entrenados en unidades de procesamiento de gráficos (GPU) de próxima generación (los chips avanzados que impulsan el entrenamiento de IA) y sus capacidades han seguido sacudiendo a las empresas financieras mucho más allá del anuncio inicial: el jueves, los bancos alemanes dijeron que estaban consultando a autoridades y expertos cibernéticos sobre los riesgos, mientras que el Banco de Inglaterra dijo que las pruebas de riesgo de IA se habían intensificado después de que Mythos apareció.

Sin embargo, la comunidad de la ciberseguridad sigue dividida sobre la verdadera gravedad de la amenaza. “El anuncio de Anthropic fue muy dramático y fue un éxito de relaciones públicas, al menos”, dice Peter Swire, profesor de la Escuela de Ciberseguridad y Privacidad del Instituto de Tecnología de Georgia y ex asesor de las administraciones Clinton y Obama. Swire señala que entre sus colegas, “una gran fracción de los profesores de ciberseguridad cree que esto es más o menos lo que se esperaba, y más o menos de lo mismo”.

Ciaran Martin, profesor de práctica en la Escuela de Gobierno Blavatnik de la Universidad de Oxford y ex director ejecutivo del Centro Nacional de Seguridad Cibernética del Reino Unido, comparte esa opinión. “Es un gran problema, pero es poco probable que resulte ser el fin del mundo”, afirma. “No estaría en el extremo más apocalíptico de la escala”.

AISI reconoció límites a las capacidades de la IA. Durante las pruebas, Mythos enfrentó defensas de software casi inexistentes que carecían de muchas protecciones presentes en el mundo real, un escenario que Martin compara con un delantero de fútbol que marca un gol contra el peor portero del mundo.

Ninguno de los expertos niega que Mythos sea un avance significativo, pero sugiere que la acción regulatoria decisiva está impulsada en parte por la autopreservación institucional. “CISO [chief information security officers] y los proveedores de ciberseguridad tienen un incentivo racional para señalar las consecuencias potencialmente muy graves de un nuevo desarrollo”, explica Swire, incluso si sus estimaciones internas asumen que el impacto real será una fracción de lo que afirma el comunicado de prensa de Anthropic. Como señala Martin, es raro que una organización “sufra un perjuicio comercial al predecir una calamidad”.

“Un riesgo después de Mythos es que será más fácil convertir una vulnerabilidad, un defecto conocido, en un exploit, algo de lo que alguien realmente se aproveche”, afirma Swire. “Todo defensor de la ciberseguridad debería tomarse en serio a Mythos, pero es probable que el daño esperado para la defensa sea mucho menor de lo que sugerirían los peores escenarios”.

Es hora de defender la ciencia

Si te ha gustado este artículo, me gustaría pedirte tu apoyo. Científico americano ha servido como defensor de la ciencia y la industria durante 180 años, y ahora mismo puede ser el momento más crítico en esos dos siglos de historia.

he sido un Científico americano suscriptor desde que tenía 12 años y me ayudó a moldear mi forma de ver el mundo. Ciencia-Am Siempre me educa y me deleita, e inspira una sensación de asombro por nuestro vasto y hermoso universo. Espero que también lo haga por ti.

Si te suscribes a Científico americanousted ayuda a garantizar que nuestra cobertura se centre en investigaciones y descubrimientos significativos; que tenemos los recursos para informar sobre las decisiones que amenazan a los laboratorios en todo Estados Unidos; y que apoyemos a los científicos tanto en ciernes como en activo en un momento en el que con demasiada frecuencia el valor de la ciencia misma pasa desapercibido.

A cambio, obtiene noticias esenciales, podcasts cautivadores, infografías brillantes, boletines informativos imperdibles, vídeos imprescindibles, juegos desafiantes y los mejores escritos e informes del mundo científico. Incluso puedes regalarle a alguien una suscripción.

Nunca ha habido un momento más importante para que nos levantemos y demostremos por qué la ciencia es importante. Espero que nos apoyes en esa misión.