Los agentes de IA capaces de actuar por su cuenta se están implementando para escanear redes, lanzar ataques y evitar los sistemas de seguridad tradicionales. Steve Durbin del Foro de Seguridad de la Información explica cómo esta tecnología está remodelando el panorama de las amenazas cibernéticas, y qué deben hacer las organizaciones para mantenerse a la vanguardia
Los agentes de inteligencia artificial son sistemas que pueden realizar de forma autónoma tareas en nombre de los usuarios. Pueden adaptarse a entornos dinámicos y tomar decisiones sin requerir intervención humana. Su capacidad para percibir y actuar sobre grandes conjuntos de datos de forma autónoma es impulsar las innovaciones y transformar las cadenas de valor al optimizar los procesos en sectores como la atención médica, la fabricación, las finanzas y la banca. Según un informe de 2024, se espera que los agentes de IA sean adoptados por el 82% de las organizaciones para 2027.
Armando a los agentes de IA para automatizar el delito cibernético
La autonomía de los agentes de IA implica avances cuando se usan de manera ética y responsable. Sin embargo, su capacidad para tomar decisiones de forma independiente y su naturaleza adaptativa ha atraído el interés de los actores maliciosos que pueden desarrollar un equipo de malware de IA agente que trabaja en colaboración para automatizar los ataques. Tales ataques escalables se pueden ejecutar con eficiencia sin precedentes y superar las capacidades de los sistemas de detección de amenazas existentes. Un resumen ejecutivo de 2025 sobre el estado de IA en ciberseguridad informa que el 78% de las CISO creen que las amenazas cibernéticas con IA ya están afectando significativamente a sus organizaciones.
Así es como la IA Agentic puede automatizar los ataques cibernéticos:
Malware polimórfico: Al igual que un camaleón vivo, este software malicioso generado por IA puede cambiar implacablemente su código o apariencia cada vez que infecta un sistema. Esto le permite evadir la detección por defensas que se basan en listas de bloques y firmas estáticas.
Malware adaptativo: La IA puede automatizar la creación de malware que analiza su entorno, identifica los protocolos de seguridad en su lugar y se adapta en tiempo real para lanzar ataques.
Ataques escalables: Los atacantes maliciosos explotan la capacidad de AI para automatizar tareas repetitivas para lanzar campañas a gran escala que pueden dirigirse simultáneamente a millones de usuarios con alta precisión; Por ejemplo, ataques como correos electrónicos de phishing, ataques DDoS y cosecha de credenciales.
Identificar los puntos de entrada de los atacantes: Los sistemas de IA pueden identificar de forma autónoma vulnerabilidades y anomalías escaneando vastas redes, encontrando posibles puntos de acceso. Al ayudar a los malos actores a reducir el tiempo y el esfuerzo que se necesitan para identificar las brechas de seguridad dentro de un sistema objetivo, los agentes de IA pueden lanzar ataques a escala a escala con velocidad alarmante, logiendo el máximo impacto.
Fraude de identidad sintética: Los actores de amenaza explotan la IA para crear identidades sintéticas mediante la combinación de datos personales reales y falsos. Debido a que tales personajes sintéticos pueden parecer legítimos y evadir la detección de fraude, se usan comúnmente en ataques que involucran robo de identidad y señuelos de ingeniería social.
Campañas de phishing personalizadas: AI amplifica la eficiencia de las campañas de phishing escaneando y analizando los datos personales de las víctimas en dominios públicos. Al cultivar estos datos, la IA puede ayudar a crear correos electrónicos de phishing altamente personalizados y convincentes.
Cuando los agentes de IA se vuelven pícaros
Los agentes de IA utilizan el aprendizaje automático para aprender continuamente de grandes cantidades de datos en tiempo real y planificar sus acciones. Sin embargo, el acceso sin restricciones a grandes cantidades de datos, junto con la autonomía, puede amenazar la seguridad de una organización y plantear riesgos regulatorios cuando los agentes de IA se vuelven pícaros y se desvían de su propósito previsto. Los agentes de IA pícaros podrían surgir de la intención maliciosa debido a la manipulación deliberada o inadvertidamente del diseño del sistema defectuoso, errores de programación o simplemente debido al descuido del usuario.
Los atacantes pueden manipular los datos de entrenamiento de la IA para explotar la autonomía de los agentes de AI deshonestos a través de técnicas como:
Inyección directa de inmediato: Los atacantes dan instrucciones incorrectas para manipular modelos de idiomas grandes (LLM) para revelar datos confidenciales o ejecutar comandos dañinos.
Inyección indirecta de inmediato: Los atacantes integran instrucciones maliciosas dentro de fuentes de datos externas, como un sitio web o un documento al que accede la IA.
Envenenamiento de datos: Los datos de entrenamiento están envenenados o sembrados con información incorrecta o engañosa para entrenar el modelo de IA. Minta la integridad del modelo, produciendo resultados erróneos, sesgados o maliciosos.
Manipulación del modelo: Los atacantes debilitan intencionalmente un sistema de IA al inyectar vulnerabilidades durante su entrenamiento para controlar sus respuestas, comprometiendo así la integridad del sistema.
Exfiltración de datos: Los atacantes usan indicaciones para manipular LLM para exponer datos confidenciales.
Los malos actores están utilizando AI para lograr resultados maliciosos. Para aprovechar el verdadero potencial de la IA, las organizaciones deben considerar el daño potencial causado por la IA rebelde mientras planea su enfoque de gestión de riesgos para garantizar que la IA se use de manera responsable y de manera segura.
Defender contra agentes de IA maliciosos o deshonestos
Lo siguiente puede ayudar a las organizaciones a permanecer seguras de los agentes de IA maliciosos:
Detección de amenazas impulsada por la IA: Use herramientas de monitoreo impulsadas por la IA para detectar las desviaciones más pequeñas en la actividad del sistema que puede apuntar a acceso o malware no autorizados.
Herramientas de protección de datos: Para garantizar que los datos confidenciales permanezcan seguros incluso si es maliciosamente interceptado, cifátelo. Asegúrese de que los usuarios válidos solo accesen datos importantes mediante el uso de la autenticación multifactor para minimizar el riesgo de acceso por parte de usuarios no autorizados.
AI resistente por entrenamiento adversario: Para hacer que los modelos de IA sean más resistentes a las amenazas maliciosas, vuelvas a entrenar en datos de ataques adversos pasados o someterlos a ataques simulados.
Datos de capacitación confiables: Se puede desarrollar un modelo de IA preciso utilizando datos de entrenamiento de alta calidad. Confiar en conjuntos de datos confiables reduce los prejuicios y los errores, lo que ayuda a mantener el modelo a salvo de recibir entrenamiento de datos maliciosos.
Los agentes autónomos de IA pueden aumentar la eficiencia y automatizar las operaciones. Pero cuando se vuelven pícaros, pueden presentar riesgos graves debido a su capacidad para actuar de forma independiente y adaptarse rápidamente. Aunque mínimamente invasivos hoy en día, los gerentes de riesgos ciertamente deben estar conscientes y en guardia. Al abordar los problemas de seguridad nativos de la IA, las organizaciones pueden aprovechar completamente el inmenso potencial que la IA tiene para ofrecer.
Sobre el autor
Steve Durbin es director ejecutivo del Foro de Seguridad de la Información, una asociación independiente dedicada a investigar, aclarar y resolver problemas clave en seguridad de la información y gestión de riesgos mediante el desarrollo de metodologías, procesos y soluciones de mejores prácticas que satisfagan las necesidades comerciales de sus miembros. La membresía de ISF comprende Fortune 500 y Forbes 2000.
Más información: