Ajuste iterativo en Amazon Bedrock para mejorar el modelo estratégico

Las organizaciones a menudo enfrentan desafíos al implementar enfoques de ajuste único para sus modelos de IA generativa. El método de ajuste fino de un solo disparo implica seleccionar datos de entrenamiento, configurar hiperparámetros y esperar que los resultados cumplan con las expectativas sin la capacidad de realizar ajustes incrementales. El ajuste fino de un solo disparo frecuentemente conduce a resultados subóptimos y requiere comenzar todo el proceso desde cero cuando se necesitan mejoras.

Amazon Bedrock ahora admite ajustes iterativos, lo que permite el refinamiento sistemático del modelo a través de rondas de capacitación incrementales y controladas. Con esta capacidad, puede aprovechar modelos previamente personalizados, ya sea que se hayan creado mediante ajustes o destilación, proporcionando una base para la mejora continua sin los riesgos asociados con una recapacitación completa.

En esta publicación, exploraremos cómo implementar la capacidad de ajuste iterativo de Amazon Bedrock para mejorar sistemáticamente sus modelos de IA. Cubriremos las ventajas clave sobre los enfoques de un solo disparo, recorreremos la implementación práctica utilizando tanto la consola como el SDK, analizaremos las opciones de implementación y compartiremos las mejores prácticas para maximizar los resultados de ajuste iterativo.

Cuándo utilizar el ajuste fino iterativo

El ajuste iterativo proporciona varias ventajas sobre los enfoques de un solo disparo que lo hacen valioso para entornos de producción. La mitigación de riesgos es posible mediante mejoras incrementales, de modo que pueda probar y validar los cambios antes de comprometerse con modificaciones más importantes. Con este enfoque, puede realizar una optimización basada en datos basada en comentarios de rendimiento reales en lugar de suposiciones teóricas sobre lo que podría funcionar. La metodología también ayuda a los desarrolladores a aplicar diferentes técnicas de entrenamiento de forma secuencial para refinar el comportamiento del modelo. Lo más importante es que el ajuste iterativo se adapta a los requisitos comerciales en evolución impulsados ​​por el tráfico continuo de datos en vivo. A medida que los patrones de usuario cambian con el tiempo y surgen nuevos casos de uso que no estaban presentes en la capacitación inicial, puede aprovechar estos datos nuevos para perfeccionar el rendimiento de su modelo sin comenzar desde cero.

Cómo implementar ajustes iterativos en Amazon Bedrock

Configurar un ajuste iterativo implica preparar su entorno y crear trabajos de capacitación que se basen en sus modelos personalizados existentes, ya sea a través de la interfaz de la consola o mediante programación mediante el SDK.

Requisitos previos

Antes de comenzar el ajuste iterativo, necesita un modelo previamente personalizado como punto de partida. Este modelo base puede originarse a partir de procesos de ajuste o de destilación y admite modelos y variantes personalizables disponibles en Amazon Bedrock. También necesitarás:

Permisos de IAM estándar para la personalización del modelo de Amazon Bedrock. Datos de capacitación incrementales enfocados en abordar brechas de rendimiento específicas. Bucket S3 para datos de capacitación y resultados de trabajo.

Sus datos de entrenamiento incrementales deben apuntar a áreas específicas donde su modelo actual necesita mejoras en lugar de intentar volver a entrenar en todos los escenarios posibles.

Uso de la consola de administración de AWS

La consola de Amazon Bedrock proporciona una interfaz sencilla para crear trabajos de ajuste iterativos.

Navegue a la sección Modelos personalizados y seleccione Crear trabajo de ajuste fino. La diferencia clave en el ajuste iterativo radica en la selección del modelo base, donde usted elige su modelo previamente personalizado en lugar de un modelo base.

Durante la capacitación, puede visitar la página de modelos personalizados en la consola de Amazon Bedrock para realizar un seguimiento del estado del trabajo.

Una vez completado, puede monitorear las métricas de desempeño de sus trabajos en la consola a través de múltiples gráficos de métricas, en las pestañas Métricas de capacitación y Métricas de validación.

Usando el SDK

La implementación programática del ajuste fino iterativo sigue patrones similares al ajuste fino estándar con una diferencia fundamental: especificar su modelo previamente personalizado como identificador del modelo base. A continuación se muestra un ejemplo de implementación:

importar boto3 desde fecha y hora importar fecha y hora importar uuid # Inicializar cliente Bedrock bedrock = boto3.client(‘bedrock’) # Definir parámetros de trabajo nombre_trabajo = f”iterative-finetuning-{datetime.now().strftime(‘%Y-%m-%d-%H-%M-%S’)}” custom_model_name = f”modelo-iterativo-{str(uuid.uuid4())[:8]}” # Diferencia clave: use el ARN de su modelo previamente personalizado como base # Esto podría provenir de un ajuste fino o destilación anterior base_model_id = “arn:aws:bedrock:::custom-model/” # Rutas de S3 para datos de entrenamiento y salidas Training_data_uri = “s3:///” output_path = “s3:////” # Hiperparámetros ajustados en función de los aprendizajes de iteraciones anteriores hyperparameters = { “epochCount”: “3” # Ejemplo } # Crear el trabajo de ajuste fino iterativo respuesta = bedrock.create_model_customization_job( CustomizationType=”FINE_TUNING”, jobName=job_name, customModelName=custom_model_name, roleArn=role_arn, baseModelIdentifier=base_model_id, # Su modelo previamente personalizado hyperParameters=hyperparameters, TrainingDataConfig={ “s3Uri”: Training_data_uri }, OutputDataConfig={ “s3Uri”: Output_path } ) job_arn = Response.get(‘jobArn’) print(f”Trabajo de ajuste iterativo creado con ARN: {job_arn}”)

Configurar la inferencia para su modelo iterativamente ajustado

Una vez que se completa su trabajo de ajuste iterativo, tiene dos opciones principales para implementar su modelo para inferencia, rendimiento aprovisionado e inferencia bajo demanda, cada una adaptada a diferentes patrones de uso y requisitos.

Rendimiento aprovisionado

El rendimiento aprovisionado ofrece un rendimiento estable para cargas de trabajo predecibles donde existen requisitos de rendimiento consistentes. Esta opción proporciona capacidad dedicada para que el modelo ajustado iterativamente mantenga los estándares de rendimiento durante los períodos de uso pico. La configuración implica la compra de unidades modelo basadas en los patrones de tráfico esperados y los requisitos de rendimiento.

Inferencia bajo demanda

La inferencia bajo demanda proporciona flexibilidad para cargas de trabajo variables y escenarios de experimentación. Amazon Bedrock ahora admite los modelos Amazon Nova Micro, Lite y Pro, así como los modelos Llama 3.3 para inferencia bajo demanda con precios de pago por token. Esta opción evita la necesidad de planificar la capacidad para que pueda probar su modelo ajustado de forma iterativa sin compromisos iniciales. El modelo de precios se escala automáticamente con el uso, lo que lo hace rentable para aplicaciones con patrones de inferencia impredecibles o de bajo volumen.

Mejores prácticas

Un ajuste iterativo exitoso requiere atención a varias áreas clave. Lo más importante es que su estrategia de datos debe enfatizar la calidad sobre la cantidad en conjuntos de datos incrementales. En lugar de agregar grandes volúmenes de nuevos ejemplos de capacitación, céntrese en datos de alta calidad que aborden brechas de desempeño específicas identificadas en iteraciones anteriores.

Para realizar un seguimiento eficaz del progreso, la coherencia de la evaluación entre iteraciones permite una comparación significativa de las mejoras. Establezca métricas de referencia durante su primera iteración y mantenga el mismo marco de evaluación durante todo el proceso. Puede utilizar las evaluaciones de Amazon Bedrock para ayudarle a identificar sistemáticamente dónde existen brechas en el rendimiento de su modelo después de cada ejecución de personalización. Esta coherencia le ayuda a comprender si los cambios están produciendo mejoras significativas.

Finalmente, reconocer cuándo detener el proceso iterativo ayuda a evitar la disminución del rendimiento de su inversión. Supervise las mejoras de rendimiento entre iteraciones y considere concluir el proceso cuando las ganancias se vuelvan marginales en relación con el esfuerzo requerido.

Conclusión

El ajuste iterativo en Amazon Bedrock proporciona un enfoque sistemático para la mejora del modelo que reduce los riesgos y al mismo tiempo permite un refinamiento continuo. Con la metodología de ajuste iterativo, las organizaciones pueden aprovechar las inversiones existentes en modelos personalizados en lugar de empezar desde cero cuando se necesitan ajustes.

Para comenzar con el ajuste iterativo, acceda a la consola de Amazon Bedrock y navegue hasta la sección Modelos personalizados. Para obtener orientación detallada sobre la implementación, consulte la documentación de Amazon Bedrock.

Sobre los autores

Yanyan Zhang es científica senior de datos de IA generativa en Amazon Web Services, donde ha estado trabajando en tecnologías de IA/ML de vanguardia como especialista en IA generativa, ayudando a los clientes a utilizar la IA generativa para lograr los resultados deseados. Yanyan se graduó de la Universidad Texas A&M con un doctorado en Ingeniería Eléctrica. Fuera del trabajo, le encanta viajar, hacer ejercicio y explorar cosas nuevas.

Gautam Kumar es gerente de ingeniería en AWS AI Bedrock y lidera iniciativas de personalización de modelos en modelos básicos a gran escala. Se especializa en capacitación distribuida y puesta a punto. Fuera del trabajo, le gusta leer y viajar.

Jesse Manders es gerente senior de productos en Amazon Bedrock, el servicio para desarrolladores de IA generativa de AWS. Trabaja en la intersección de la IA y la interacción humana con el objetivo de crear y mejorar productos y servicios de IA generativa para satisfacer nuestras necesidades. Anteriormente, Jesse ocupó puestos de liderazgo en equipos de ingeniería en Apple y Lumileds, y fue científico senior en una startup de Silicon Valley. Tiene una maestría y un doctorado. de la Universidad de Florida y un MBA de la Universidad de California, Berkeley, Haas School of Business.