Evaluación de posibles amenazas de ciberseguridad de IA avanzada

La inteligencia artificial (IA) ha sido durante mucho tiempo una piedra angular de la ciberseguridad. Desde la detección de malware hasta el análisis de tráfico de red, los modelos de aprendizaje automático predictivo y otras aplicaciones estrechas de IA se han utilizado en ciberseguridad durante décadas. A medida que nos acercamos a la inteligencia general artificial (AGI), el potencial de IA para automatizar las defensas y fijar las vulnerabilidades se vuelve aún más poderosa.

Pero para aprovechar tales beneficios, también debemos comprender y mitigar los riesgos de ser una IA cada vez más avanzada mal usado para habilitar o mejorar los ataques cibernéticos. Nuestro nuevo marco para evaluar las capacidades cibernéticas ofensivas emergentes de la IA nos ayuda a hacer exactamente esto. Es la evaluación más completa de su tipo hasta la fecha: cubre cada fase de la cadena cibernética, aborda una amplia gama de tipos de amenazas y se basa en datos del mundo real.

Nuestro marco permite a los expertos en ciberseguridad identificar qué defensas son necesarias, y cómo priorizarlas, antes de que los actores maliciosos puedan explotar la IA para llevar a cabo ataques cibernéticos sofisticados.

Construyendo un punto de referencia integral

Nuestro actualizado Marco de seguridad fronteriza Reconoce que los modelos AI avanzados podrían automatizar y acelerar los ataques cibernéticos, lo que potencialmente reduce los costos para los atacantes. Esto, a su vez, aumenta los riesgos de que los ataques se llevan a cabo a mayor escala.

Para mantenerse a la vanguardia de la amenaza emergente de los ataques cibernéticos con IA, hemos adaptado los marcos de evaluación de ciberseguridad probada y probada, como MITOR ATT & CK. Estos marcos nos permitieron evaluar las amenazas en la cadena de ataque cibernético de extremo a extremo, desde el reconocimiento hasta la acción en los objetivos y en una variedad de posibles escenarios de ataque. Sin embargo, estos marcos establecidos no fueron diseñados para dar cuenta de los atacantes que usan IA para violar un sistema. Nuestro enfoque cierra esta brecha identificando proactivamente dónde la IA podría hacer ataques más rápido, más barato o más fácil, por ejemplo, al permitir ataques cibernéticos totalmente automatizados.

Analizamos más de 12,000 intentos del mundo real de usar IA en ataques cibernéticos en 20 países, aprovechando los datos de Grupo de inteligencia de amenazas de Google. Esto nos ayudó a identificar patrones comunes en cómo se desarrollan estos ataques. A partir de estos, seleccionamos una lista de siete categorías de ataques arquetípicos, incluidos el phishing, el malware y los ataques de denegación de servicio, e identificamos etapas críticas de cuello de botella a lo largo de la cadena cibernética donde la IA podría interrumpir significativamente los costos tradicionales de un ataque. Al centrar las evaluaciones en estos cuellos de botella, los defensores pueden priorizar sus recursos de seguridad de manera más efectiva.

Finalmente, creamos un punto de referencia de capacidad cibernética ofensiva para evaluar de manera integral las fortalezas y debilidades de ciberseguridad de los modelos de IA fronteriza. Nuestro punto de referencia consta de 50 desafíos que cubren toda la cadena de ataque, incluidas áreas como la recolección de inteligencia, la explotación de vulnerabilidad y el desarrollo de malware. Nuestro objetivo es proporcionar a los defensores la capacidad de desarrollar mitigaciones específicas y simular ataques con IA como parte de los ejercicios de equipo rojo.

Ideas de evaluaciones tempranas

Nuestras evaluaciones iniciales utilizando este punto de referencia sugieren que de forma aislada, es poco probable que los modelos de IA actuales permitan capacidades innovador para los actores de amenazas. Sin embargo, a medida que Frontier AI se vuelve más avanzada, los tipos de ataques cibernéticos posibles evolucionarán, lo que requiere mejoras continuas en las estrategias de defensa.

También encontramos que las evaluaciones de seguridad cibernética de IA existentes a menudo pasan por alto los principales aspectos de los ataques cibernéticos, como la evasión, donde los atacantes esconden su presencia y persistencia, donde mantienen el acceso a largo plazo a un sistema comprometido. Sin embargo, tales áreas son precisamente donde los enfoques con AI pueden ser particularmente efectivos. Nuestro marco brilla una luz sobre este tema al discutir cómo la IA puede reducir las barreras al éxito en estas partes de un ataque.

Empoderando a la comunidad de ciberseguridad

A medida que los sistemas de IA continúan escalando, su capacidad para automatizar y mejorar la ciberseguridad tiene el potencial de transformar cómo los defensores anticipan y responden a las amenazas.

Nuestro Marco de Evaluación de Ciberseguridad está diseñado para respaldar ese cambio ofreciendo una visión clara de cómo la IA también podría ser mal utilizada, y cuando las protecciones cibernéticas existentes pueden quedarse cortas. Al destacar estos riesgos emergentes, este marco y un punto de referencia ayudará a los equipos de ciberseguridad a fortalecer sus defensas y mantenerse por delante de las amenazas de rápido evolución.