Por supuesto, nadie que haya prestado atención a la rápida proliferación de la IA en toda la empresa necesita que le diga que esto está lejos del típico anuncio de un nuevo producto.
Definitivamente estamos en la incómoda fase intermedia en la que la IA puede parecer un animal un poco incontrolable: muy poderosa, algo impredecible y, a veces, un poco imprudente.
Es en ese contexto que hoy encontramos la introducción de la nueva plataforma Agent Commander, una plataforma que promete no sólo identificar problemas de IA, sino también “revertir” errores basados en IA.
Si bien eso es algo a lo que todos hemos estado acostumbrados en otras áreas de TI durante años, cuando se trata de seguridad de IA, la mayoría de nosotros ni siquiera hemos visto esto en el manual todavía.
Teniendo esto en cuenta, no es difícil ver por qué Veeam está despertando tanto interés en su nueva plataforma. Cuando los agentes de IA toman sus propias decisiones a la velocidad de la luz, claramente no podrás esperar horas para detectar el problema y días para solucionarlo.
Ese ha sido un problema real que muchos en seguridad han estado viendo de primera mano. Lo que está generando entusiasmo en torno a Agent Commander (y la razón por la que muchos CTO y otros líderes en tecnología empresarial se están entusiasmando un poco) es que Veeam promete hacer las tres cosas: detectar riesgos de IA, proteger cargas de trabajo de IA y deshacer acciones de IA.
En un entorno donde la mayoría de nuestras herramientas han sido diseñadas para detectar y proteger, esa es una idea interesante. El enfoque de Veeam es ofrecer a los equipos de seguridad una vista única de los datos, la identidad y las actividades de IA en tiempo real.
Muchas herramientas existentes realizan algunas de estas tareas, pero no todas, o no en tiempo real. Casi puedo imaginar el debate que se está produciendo hoy en las reuniones de personal a nivel de CTO: “Sí, sí, detectar amenazas de IA es algo grandioso.
Pero ¿qué pasa cuando un agente de IA ya ha hecho algo que no debería hacer? ¿Qué pasa cuando ya se han hecho mal uso de algunos datos confidenciales? Estoy seguro de que muchos equipos de seguridad han estado luchando con esa pregunta durante meses.
Según las encuestas, un alto porcentaje de empresas ya ha experimentado problemas de seguridad relacionados con la IA. Las herramientas existentes no están haciendo el trabajo aquí. Es por eso que los equipos de TI con los que he hablado ya no hablan sólo de seguridad; Están hablando de confianza.
Quieren confiar lo suficiente en los agentes de IA para seguir adoptándola y aprovechar todos los poderosos beneficios que puede aportar a sus organizaciones sin tener que temer que su próxima filtración de datos provenga de sus sistemas de IA.
Si bien Agent Commander de Veeam no es una panacea, su promesa de atribuir actividades de IA y revertirlas selectivamente podría ser el comienzo de lo que estos equipos han estado buscando.
Pero si bien creo que es un gran problema, también creo que es importante dar un paso atrás y comprender que esta es una señal más de una realidad más amplia acerca de la IA: ahora estamos oficialmente en la era de la IA “agencial”, donde los agentes de IA no simplemente responden a consultas y solicitudes, sino que toman activamente acciones independientes, a menudo vinculadas en cadenas de servicios y datos.
Están tomando decisiones a una velocidad y escala que a los humanos les resulta difícil seguir el ritmo. Esto está creando algunos riesgos completamente nuevos y es la razón por la cual las herramientas y marcos diseñados para una generación anterior de aplicaciones estáticas parecen tan obsoletos hoy en día.
El anuncio de Veeam de hoy es menos el lanzamiento de un nuevo producto y más una declaración de que la IA es diferente. Entonces, ¿dónde nos deja eso hoy? Creo que el nuevo Agent Commander de Veeam es un recordatorio importante de que la IA no es sólo algo para lo que tendremos que prepararnos, sino algo que tendremos que controlar.
Y aunque sin duda tendremos muchas más preguntas a medida que estos agentes autónomos de IA sigan evolucionando, creo que este es un gran comienzo para la conversación. ¿Y quién sabe? Quizás algún día tengamos una IA que pueda ayudarnos a controlarse a sí misma.