Hoy anunciamos la disponibilidad general de Gestión rápida de Amazon Bedrockcon nuevas características que brindan opciones mejoradas para configurar sus mensajes y permitir una integración perfecta para invocarlos en sus aplicaciones de IA generativa.

Amazon Bedrock Prompt Management simplifica la creación, evaluación, control de versiones y uso compartido de indicaciones para ayudar a los desarrolladores e ingenieros a obtener mejores respuestas de los modelos básicos (FM) para sus casos de uso. En esta publicación, exploramos las capacidades clave de Amazon Bedrock Prompt Management y mostramos ejemplos de cómo utilizar estas herramientas para ayudar a optimizar el rendimiento y los resultados de los mensajes para sus casos de uso específicos.

Nuevas funciones en Amazon Bedrock Prompt Management

Amazon Bedrock Prompt Management ofrece nuevas capacidades que simplifican el proceso de creación de aplicaciones de IA generativa:

  • Indicaciones estructuradas – Defina instrucciones del sistema, herramientas y mensajes adicionales al crear sus indicaciones.
  • Integración de API de Converse e InvokeModel – Invoque sus mensajes catalogados directamente desde las llamadas API de Amazon Bedrock Converse e InvokeModel

Para mostrar las nuevas incorporaciones, veamos un ejemplo de cómo crear un mensaje que resuma documentos financieros.

Crear un nuevo mensaje

Complete los siguientes pasos para crear un nuevo mensaje:

  1. En la consola de Amazon Bedrock, en el panel de navegación, en Herramientas de construcciónelegir Gestión rápida.
  2. Elegir Crear mensaje.
  3. Proporcione un nombre y una descripción, y elija Crear.

Construya el mensaje

Utilice el generador de mensajes para personalizar su mensaje:

  1. Para Instrucciones del sistemadefine el rol del modelo. Para este ejemplo, ingresamos lo siguiente:
    You are an expert financial analyst with years of experience in summarizing complex financial documents. Your task is to provide clear, concise, and accurate summaries of financial reports.
  2. Agregue el mensaje de texto en el Mensaje de usuario caja.

Puede crear variables encerrando un nombre entre llaves dobles. Posteriormente puede pasar valores para estas variables en el momento de la invocación, que se inyectan en su plantilla de solicitud. Para esta publicación, utilizamos el siguiente mensaje:

Summarize the following financial document for {{company_name}} with ticker symbol {{ticker_symbol}}:
Please provide a brief summary that includes
1.	Overall financial performance
2.	Key numbers (revenue, profit, etc.)
3.	Important changes or trends
4.	Main points from each section
5.	Any future outlook mentioned
6.	Current Stock price
Keep it concise and easy to understand. Use bullet points if needed.
Document content: {{document_content}}

  1. Configurar herramientas en el Configuración de herramientas sección para llamar a funciones.

Puede definir herramientas con nombres, descripciones y esquemas de entrada para permitir que el modelo interactúe con funciones externas y amplíe sus capacidades. Proporcione un esquema JSON que incluya la información de la herramienta.

Cuando se utilizan llamadas a funciones, un LLM no utiliza herramientas directamente; en cambio, indica la herramienta y los parámetros necesarios para utilizarla. Los usuarios deben implementar la lógica para invocar herramientas basadas en las solicitudes del modelo y enviar los resultados al modelo. Referirse a Utilice una herramienta para completar una respuesta del modelo de Amazon Bedrock para aprender más.

  1. Elegir Ahorrar para guardar su configuración.

Comparar variantes de mensajes

Puede crear y comparar varias versiones de su mensaje para encontrar la mejor para su caso de uso. Este proceso es manual y personalizable.

  1. Elegir Comparar variantes.
  2. La variante original ya está poblada. Puede agregar manualmente nuevas variantes especificando el número que desea crear.
  3. Para cada nueva variante, puede personalizar el mensaje de usuario, las instrucciones del sistema, la configuración de herramientas y mensajes adicionales.
  4. Puedes crear diferentes variantes para diferentes modelos. Elegir Seleccionar modelo para elegir el FM específico para probar cada variante.
  5. Elegir ejecutar todo para comparar los resultados de todas las variantes de mensajes en los modelos seleccionados.
  6. Si una variante funciona mejor que la original, puedes elegir Reemplazar mensaje original para actualizar su mensaje.
  7. en el constructor rápido página, elija Crear versión para guardar el mensaje actualizado.

Este enfoque le permite ajustar sus indicaciones para modelos o casos de uso específicos y facilita probar y mejorar sus resultados.

Invocar el mensaje

Para invocar el mensaje desde sus aplicaciones, ahora puede incluir el identificador y la versión del mensaje como parte de la llamada a la API de Amazon Bedrock Converse. El siguiente código es un ejemplo que utiliza el SDK de AWS para Python (Boto3):

import boto3

# Set up the Bedrock client
bedrock = boto3.client('bedrock-runtime')

# Example API call
response = bedrock.converse(
    modelId=<<insert prompt arn>>,
    promptVariables="{ "company_name": { "text" : "<<insert company name>>"},"ticker_symbol": {"text" : "<<insert ticker symbol>>"},"document_content": {"text" : "<<Insert document content>>"}}"
)

# Print the response	
response_body = json.loads(bedrock_response.get('body').read())
print(response_body)

Hemos pasado el nombre de recurso de Amazon (ARN) en el parámetro ID del modelo y las variables de solicitud como un parámetro separado, y Amazon Bedrock carga directamente nuestra versión de solicitud desde nuestra biblioteca de administración de solicitudes para ejecutar la invocación sin sobrecargas de latencia. Este enfoque simplifica el flujo de trabajo al permitir la invocación directa mediante las API Converse o InvokeModel, eliminando la recuperación y el formateo manuales. También permite a los equipos reutilizar y compartir indicaciones y realizar un seguimiento de diferentes versiones.

Para obtener más información sobre el uso de estas funciones, incluidos los permisos necesarios, e el documentación.

También puedes invocar las indicaciones de otras maneras:

Ahora disponible

Amazon Bedrock Prompt Management ahora está disponible de forma general en el este de EE. UU. (Norte de Virginia), el oeste de EE. UU. (Oregón), Europa (París), Europa (Irlanda), Europa (Frankfurt), Europa (Londres), América del Sur (Sao Paulo) , Regiones de AWS de Asia Pacífico (Mumbai), Asia Pacífico (Tokio), Asia Pacífico (Singapur), Asia Pacífico (Sídney) y Canadá (Central). Para obtener información sobre precios, consulte Precios de Amazon Bedrock.

Conclusión

La disponibilidad general de Amazon Bedrock Prompt Management presenta potentes capacidades que mejoran el desarrollo de aplicaciones de IA generativa. Al proporcionar una plataforma centralizada para crear, personalizar y administrar avisos, los desarrolladores pueden optimizar sus flujos de trabajo y trabajar para mejorar el rendimiento de los avisos. La capacidad de definir instrucciones del sistema, configurar herramientas y comparar variantes de mensajes permite a los equipos crear mensajes efectivos adaptados a sus casos de uso específicos. Con una integración perfecta en la API de Amazon Bedrock Converse y soporte para marcos populares, las organizaciones ahora pueden crear e implementar sin esfuerzo soluciones de IA que tienen más probabilidades de generar resultados relevantes.


Acerca de los autores

Dani Mitchell es arquitecto de soluciones especializado en IA generativa en AWS. Se centra en casos de uso de visión por computadora y ayuda a acelerar las empresas de EMEA en sus viajes de aprendizaje automático e inteligencia artificial generativa con Amazon SageMaker y Amazon Bedrock.

Ignacio Sánchez es arquitecto de soluciones especialistas en inteligencia artificial y aprendizaje automático en AWS. Combina sus habilidades en realidad extendida e inteligencia artificial para ayudar a las empresas a mejorar la forma en que las personas interactúan con la tecnología, haciéndola accesible y más agradable para los usuarios finales.