Secure Approach To Generative Ai On Aws 1119x630.png

Inteligencia artificial generativa (IA) está transformando la experiencia del cliente en industrias de todo el mundo. Los clientes están creando aplicaciones de IA generativa utilizando modelos de lenguaje grande (LLM) y otros modelos básicos (FM), que mejoran las experiencias de los clientes, transforman las operaciones, mejoran la productividad de los empleados y crean nuevos canales de ingresos.

Los FM y las aplicaciones creadas en torno a ellos representan inversiones extremadamente valiosas para nuestros clientes. A menudo se utilizan con datos comerciales altamente confidenciales, como datos personales, datos de cumplimiento, datos operativos e información financiera, para optimizar la salida del modelo. La mayor preocupación que escuchamos de los clientes mientras exploran las ventajas de la IA generativa es cómo proteger sus datos e inversiones altamente confidenciales. Debido a que sus datos y pesos de modelo son increíblemente valiosos, los clientes exigen que se mantengan protegidos, seguros y privados, ya sea de las cuentas de sus propios administradores, de sus clientes, de las vulnerabilidades en el software que se ejecuta en sus propios entornos o incluso de que su proveedor de servicios en la nube tenga acceso.

En AWS, nuestra principal prioridad es salvaguardar la seguridad y la confidencialidad de las cargas de trabajo de nuestros clientes. Pensamos en la seguridad en las tres capas de nuestra pila de IA generativa:

  • Capa inferior – Proporciona las herramientas para crear y capacitar LLM y otros FM.
  • Capa de en medio – Proporciona acceso a todos los modelos junto con las herramientas que necesita para crear y escalar aplicaciones de IA generativa.
  • Capa superior – Incluye aplicaciones que utilizan LLM y otros FM para hacer que el trabajo sea libre de estrés escribiendo y depurando código, generando contenido, obteniendo conocimientos y tomando medidas.

Cada capa es importante para que la IA generativa sea omnipresente y transformadora.

Con el Sistema Nitro AWS, entregamos una innovación única en su tipo en nombre de nuestros clientes. El sistema Nitro es una columna vertebral informática incomparable para AWS, con la seguridad y el rendimiento en su núcleo. Su hardware especializado y firmware asociado están diseñados para imponer restricciones para que nadie, incluido nadie en AWS, pueda acceder a sus cargas de trabajo o datos que se ejecutan en su Nube informática elástica de Amazon (Amazon EC2) instancias. Los clientes se han beneficiado de esta confidencialidad y aislamiento de los operadores de AWS en todas las instancias EC2 basadas en Nitro desde 2017.

Por diseño, no existe ningún mecanismo para que ningún empleado de Amazon acceda a una instancia Nitro EC2 que los clientes utilizan para ejecutar sus cargas de trabajo, o para acceder a los datos que los clientes envían a un acelerador o GPU de aprendizaje automático (ML). Esta protección se aplica a todas las instancias basadas en Nitro, incluidas las instancias con aceleradores de ML como AWS Inferencia y Capacitación en AWSe instancias con GPU como P4, P5, G5 y G6.

El sistema Nitro permite Adaptador de tela elástica (EFA), que utiliza el protocolo de comunicación AWS Scalable Reliable Datagram (SRD) creado por AWS para entrenamiento distribuido a gran escala y elástico a escala de nube, lo que permite la única red con capacidad de acceso remoto directo a memoria (RDMA) siempre cifrada. Toda la comunicación a través de EFA está cifrada con Cifrado VPC sin incurrir en ninguna penalización de rendimiento.

El diseño del Sistema Nitro ha sido validado por el Grupo NCC, una firma independiente de ciberseguridad. AWS ofrece un alto nivel de protección para las cargas de trabajo de los clientes y creemos que este es el nivel de seguridad y confidencialidad que los clientes deben esperar de su proveedor de nube. Este nivel de protección es tan crítico que lo hemos agregado en nuestra Términos del servicio de AWS para proporcionar una seguridad adicional a todos nuestros clientes.

Innovando cargas de trabajo seguras de IA generativa utilizando las capacidades de seguridad líderes en la industria de AWS

Desde el primer día, la infraestructura y los servicios de IA de AWS han tenido funciones de seguridad y privacidad integradas para brindarle control sobre sus datos. A medida que los clientes avanzan rápidamente para implementar IA generativa en sus organizaciones, usted necesita saber que sus datos se manejan de forma segura durante todo el ciclo de vida de la IA, incluida la preparación, la capacitación y la inferencia de datos. La seguridad de los pesos del modelo (los parámetros que un modelo aprende durante el entrenamiento y que son críticos para su capacidad de hacer predicciones) es fundamental para proteger sus datos y mantener la integridad del modelo.

Por eso es fundamental que AWS continúe innovando en nombre de nuestros clientes para elevar el nivel de seguridad en cada capa de la pila de IA generativa. Para hacer esto, creemos que debe tener seguridad y confidencialidad integradas en cada capa de la pila de IA generativa. Debe poder proteger la infraestructura para capacitar a los LLM y otros FM, construir de forma segura con herramientas para ejecutar LLM y otros FM, y ejecutar aplicaciones que utilicen FM con seguridad y privacidad integradas en las que pueda confiar.

En AWS, proteger la infraestructura de IA se refiere al acceso cero a datos confidenciales de IA, como los pesos de los modelos de IA y los datos procesados ​​con esos modelos, por parte de cualquier persona no autorizada, ya sea en el operador de la infraestructura o en el cliente. Se compone de tres principios clave:

  1. Aislamiento completo de los datos de IA del operador de infraestructura – El operador de infraestructura no debe tener capacidad para acceder al contenido del cliente ni a los datos de IA, como los pesos de los modelos de IA y los datos procesados ​​con modelos.
  2. Capacidad para que los clientes aíslen los datos de IA de ellos mismos – La infraestructura debe proporcionar un mecanismo que permita cargar los pesos y datos de los modelos en el hardware, mientras permanece aislado e inaccesible de los propios usuarios y software de los clientes.
  3. Comunicaciones de infraestructura protegida – Se debe proteger la comunicación entre dispositivos en la infraestructura del acelerador de ML. Todos los enlaces accesibles externamente entre los dispositivos deben estar cifrados.

El sistema Nitro cumple el primer principio de infraestructura segura de IA al aislar sus datos de IA de los operadores de AWS. El segundo principio le proporciona una forma de eliminar el acceso administrativo de sus propios usuarios y software a sus datos de IA. AWS no solo le ofrece una manera de lograrlo, sino que también lo hicimos sencillo y práctico al invertir en la creación de una solución integrada entre Enclaves Nitro de AWS y Servicio de administración de claves de AWS (AWS KMS). Con Nitro Enclaves y AWS KMS, puede cifrar sus datos confidenciales de IA utilizando claves que posee y controla, almacenar esos datos en la ubicación que elija y transferir de forma segura los datos cifrados a un entorno informático aislado para realizar inferencias. A lo largo de todo este proceso, los datos confidenciales de IA se cifran y se aíslan de sus propios usuarios y software en su instancia EC2, y los operadores de AWS no pueden acceder a estos datos. Los casos de uso que se han beneficiado de este flujo incluyen la ejecución inferencia LLM en un enclave. Hasta hoy, los Nitro Enclaves funcionan solo en la CPU, lo que limita el potencial de modelos de IA generativa más grandes y procesamiento más complejo.

Anunciamos nuestros planes para ampliar este flujo cifrado de extremo a extremo de Nitro para incluir una integración de primera clase con aceleradores de aprendizaje automático y GPU, cumpliendo así el tercer principio. Podrá descifrar y cargar datos confidenciales de IA en un acelerador de aprendizaje automático para su procesamiento mientras proporciona aislamiento de sus propios operadores y autenticidad verificada de la aplicación utilizada para procesar los datos de IA. A través del sistema Nitro, puede validar criptográficamente sus aplicaciones en AWS KMS y descifrar datos solo cuando pasen las comprobaciones necesarias. Esta mejora permite a AWS ofrecer cifrado de extremo a extremo para sus datos a medida que fluyen a través de cargas de trabajo de IA generativa.

Planeamos ofrecer este flujo cifrado de extremo a extremo en el próximo diseño de AWS trenium2 así como instancias de GPU basadas en la próxima arquitectura Blackwell de NVIDIA, que ofrecen comunicaciones seguras entre dispositivos, el tercer principio de Secure AI Infrastructure. AWS y NVIDIA están colaborando estrechamente para llevar al mercado una solución conjunta, incluida la nueva plataforma de GPU NVIDIA Blackwell, que combina la solución GB200 NVL72 de NVIDIA con las tecnologías Nitro System y EFA para proporcionar una solución líder en la industria para construir e implementar de forma segura la próxima generación. Aplicaciones de IA generativa.

Avanzando en el futuro de la seguridad de la IA generativa

Hoy en día, decenas de miles de clientes utilizan AWS para experimentar y llevar a producción aplicaciones transformadoras de IA generativa. Las cargas de trabajo de IA generativa contienen datos confidenciales y muy valiosos que necesitan el nivel de protección de sus propios operadores y del proveedor de servicios en la nube. Los clientes que utilizan instancias EC2 basadas en AWS Nitro han recibido este nivel de protección y aislamiento de los operadores de AWS desde 2017, cuando lanzamos nuestro innovador sistema Nitro.

En AWS, continuamos con esa innovación a medida que invertimos en la creación de capacidades accesibles y de alto rendimiento para que a nuestros clientes les resulte práctico proteger sus cargas de trabajo de IA generativa en las tres capas de la pila de IA generativa, para que usted pueda concentrarse en lo que hace. Lo mejor: desarrollar y ampliar los usos de la IA generativa a más áreas. Aprende más aquí.


Sobre los autores

Anthony Liguori es vicepresidente de AWS e ingeniero distinguido de EC2

Colm MacCárthaigh es vicepresidente de AWS e ingeniero distinguido de EC2