Create Natural Conversations.jpg

Las organizaciones de servicio al cliente hoy enfrentan una inmensa oportunidad. A medida que crecen las expectativas de los clientes, las marcas tienen la oportunidad de aplicar creativamente nuevas innovaciones para transformar la experiencia del cliente. Si bien satisfacer las crecientes demandas de los clientes plantea desafíos, los últimos avances en inteligencia artificial (IA) conversacional permiten a las empresas cumplir estas expectativas.

Hoy en día, los clientes esperan respuestas oportunas a sus preguntas que sean útiles, precisas y adaptadas a sus necesidades. El nuevo QnAIntent, impulsado por Roca Amazónica, puede cumplir con estas expectativas al comprender las preguntas planteadas en lenguaje natural y responder de manera conversacional en tiempo real utilizando sus propias fuentes de conocimiento autorizadas. Nuestro enfoque de generación aumentada de recuperación (RAG) permite Amazon Lex para aprovechar tanto la amplitud del conocimiento disponible en los repositorios como la fluidez de los modelos de lenguajes grandes (LLM).

Amazon Bedrock es un servicio totalmente administrado que ofrece una selección de modelos básicos (FM) de alto rendimiento de empresas líderes en inteligencia artificial como AI21 Labs, Anthropic, Cohere, Meta, Mistral AI, Stability AI y Amazon a través de una única API, junto con una Amplio conjunto de capacidades para crear aplicaciones de IA generativa con seguridad, privacidad e IA responsable.

En esta publicación, le mostramos cómo agregar capacidades de respuesta de preguntas de IA generativa a sus bots. Esto se puede hacer utilizando sus propias fuentes de conocimiento seleccionadas y sin escribir una sola línea de código.

Continúe leyendo para descubrir cómo QnAIntent puede transformar la experiencia de sus clientes.

Descripción general de la solución

La implementación de la solución consta de los siguientes pasos de alto nivel:

  1. Cree un bot de Amazon Lex.
  2. Crear un Servicio de almacenamiento simple de Amazon (Amazon S3) y cargue un archivo PDF que contenga la información utilizada para responder preguntas.
  3. Cree una base de conocimientos que dividirá sus datos en fragmentos y generará incrustaciones utilizando el modelo de Amazon Titan Embeddings. Como parte de este proceso, Bases de conocimiento para Amazon Bedrock crea automáticamente un Amazon OpenSearch sin servidor colección de búsqueda de vectores para contener sus datos vectorizados.
  4. Agregue una nueva intención QnAIntent que utilizará la base de conocimientos para encontrar respuestas a las preguntas de los clientes y luego usará el modelo Anthropic Claude para generar respuestas a preguntas y preguntas de seguimiento.

Requisitos previos

Para seguir las funciones descritas en esta publicación, necesita acceso a una cuenta de AWS con permisos para acceder a Amazon Lex, Amazon Bedrock (con acceso a modelos Anthropic Claude e incrustaciones de Amazon Titan o Cohere Embed), bases de conocimiento para Amazon Bedrock y el motor vectorial OpenSearch Serverless. Para solicitar acceso a modelos en Amazon Bedrock, complete los siguientes pasos:

  1. En la consola de Amazon Bedrock, elija Acceso al modelo en el panel de navegación.
  2. Elegir Administrar el acceso al modelo.
  3. Selecciona el Amazonas y antrópico modelos. (También puede optar por utilizar modelos Cohere para incrustaciones).


  4. Elegir Solicitar acceso al modelo.

Crear un bot de Amazon Lex

Si ya tienes un bot que deseas utilizar, puedes omitir este paso.

  1. En la consola de Amazon Lex, elija robots en el panel de navegación.
  2. Elegir crear robot
  3. Seleccionar Comience con un ejemplo y elija el bot de ejemplo BookTrip.
  4. Para Nombre del robotingrese un nombre para el bot (por ejemplo, BookHotel).
  5. Para Rol de tiempo de ejecuciónseleccionar Cree un rol con permisos básicos de Amazon Lex.
  6. En el Ley de protección de la privacidad infantil en línea (COPPA) sección, puede seleccionar No porque este bot no está dirigido a niños menores de 13 años.
  7. Mantener el Tiempo de espera de sesión inactiva ajuste a 5 minutos.
  8. Elegir Próximo.
  9. Al utilizar QnAIntent para responder preguntas en un bot, es posible que desee aumentar el umbral de confianza de la clasificación de intenciones para que no se interprete accidentalmente que sus preguntas coinciden con una de sus intenciones. Establecemos esto en 0,8 por ahora. Es posible que deba ajustar esto hacia arriba o hacia abajo según sus propias pruebas.
  10. Elegir Hecho.
  11. Elegir Guardar intención.

Cargar contenido en Amazon S3

Ahora crea un depósito de S3 para almacenar los documentos que desea utilizar para su base de conocimientos.

  1. En la consola de Amazon S3, elija cubos en el panel de navegación.
  2. Elegir Crear depósito.
  3. Para Nombre del depósitoingrese un nombre único.
  4. Mantenga los valores predeterminados para todas las demás opciones y elija Crear depósito.

Para esta publicación, creamos un documento de preguntas frecuentes para la cadena hotelera ficticia llamada Ejemplo Corp FictitiousHotels. Descargue el documento PDF para seguir adelante.

  1. Sobre el cubos página, navegue hasta el depósito que creó.

Si no lo ve, puede buscarlo por nombre.

  1. Elegir Subir.
  2. Elegir Agregar archivos.
  3. Elegir el ExampleCorpFicticiousHotelsFAQ.pdf que descargaste.
  4. Elegir Subir.

Ahora se podrá acceder al archivo en el depósito de S3.

Crear una base de conocimientos

Ahora puedes configurar la base de conocimientos:

  1. En la consola de Amazon Bedrock, elija Base de conocimientos en el panel de navegación.
  2. Elegir Crear base de conocimientos.
  3. Para Nombre de la base de conocimientosingresa un nombre.
  4. Para Descripción de la base de conocimientosingrese una descripción opcional.
  5. Seleccionar Crear y utilizar un nuevo rol de servicio.
  6. Para Nombre del rol de servicioingrese un nombre o mantenga el predeterminado.
  7. Elegir Próximo.
  8. Para Nombre de fuente de datosingresa un nombre.
  9. Elegir Explorar S3 y navegue hasta el depósito de S3 en el que cargó el archivo PDF anteriormente.
  10. Elegir Próximo.
  11. Elija un modelo de incrustaciones.
  12. Seleccionar Crea rápidamente una nueva tienda de vectores para crear un nuevo almacén de vectores OpenSearch Serverless para almacenar el contenido vectorizado.
  13. Elegir Próximo.
  14. Revise su configuración, luego elija Crear base de conocimientos.

Al cabo de unos minutos se habrá creado la base de conocimientos.

  1. Elegir Sincronizar sincronizar para fragmentar los documentos, calcular las incrustaciones y almacenarlos en el almacén de vectores.

Esto puede tardar un rato. Puede continuar con el resto de los pasos, pero la sincronización debe finalizar antes de poder consultar la base de conocimientos.

  1. Copie el ID de la base de conocimientos. Hará referencia a esto cuando agregue esta base de conocimientos a su bot de Amazon Lex.

Agregue QnAIntent al bot de Amazon Lex

Para agregar QnAIntent, siga los siguientes pasos:

  1. En la consola de Amazon Lex, elija robots en el panel de navegación.
  2. Elige tu bot.
  3. En el panel de navegación, elija Intenciones.
  4. Sobre el Agregar intención menú, elija Usar intención incorporada.
  5. Para Intención incorporadaelegir AMAZON.QnAIntento.
  6. Para Nombre de la intencióningresa un nombre.
  7. Elegir Agregar.
  8. Elija el modelo que desea utilizar para generar las respuestas (en este caso, Anthropic Claude 3 Sonnet, pero puede seleccionar Anthropic Claude 3 Haiku para obtener una opción más económica y con menos latencia).
  9. Para Elige tienda de conocimientoseleccionar Base de conocimientos para Amazon Bedrock.
  10. Para Base de conocimientos para Amazon Bedrock Id.ingrese el ID que anotó anteriormente cuando creó su base de conocimientos.
  11. Elegir Guardar intención.
  12. Elegir Construir para construir el robot.
  13. Elegir Prueba para probar la nueva intención.

La siguiente captura de pantalla muestra una conversación de ejemplo con el bot.

En la segunda pregunta sobre el horario de la piscina en Miami, vuelve a consultar la pregunta anterior sobre el horario de la piscina en Las Vegas y aún obtiene una respuesta relevante según el historial de conversaciones.

También es posible hacer preguntas que requieran que el robot razone un poco sobre los datos disponibles. Cuando preguntamos acerca de un buen resort para unas vacaciones familiares, el robot recomendó el resort de Orlando según la disponibilidad de actividades para niños, la proximidad a parques temáticos y más.

Actualizar el umbral de confianza

Es posible que algunas preguntas coincidan accidentalmente con sus otras intenciones. Si te encuentras con esto, puedes ajustar el umbral de confianza de tu bot. Para modificar esta configuración, elige el idioma de tu bot (inglés) y en el Detalles del idioma sección, elija Editar.

Después de actualizar el umbral de confianza, reconstruya el bot para que el cambio surta efecto.

Agregar pasos adicionales

De forma predeterminada, el siguiente paso en la conversación del bot está configurado en Espere la entrada del usuario después de haber respondido una pregunta. Esto mantiene la conversación en el bot y permite al usuario hacer preguntas de seguimiento o invocar cualquiera de las otras intenciones en su bot.

Si desea que la conversación finalice y devuelva el control a la aplicación que llama (por ejemplo, Conexión de Amazon), puedes cambiar este comportamiento a Finalizar conversación. Para actualizar la configuración, complete los siguientes pasos:

  1. En la consola de Amazon Lex, navegue hasta QnAIntent.
  2. En el Cumplimiento sección, elija Opciones avanzadas.
  3. Sobre el Siguiente paso en la conversación menú desplegable, elija Finalizar conversación.

Si desea que el bot agregue un mensaje específico después de cada respuesta de QnAIntent (como «¿Puedo ayudarlo con algo más?»), puede agregar una respuesta de cierre a QnAIntent.

Limpiar

Para evitar incurrir en costos continuos, elimine los recursos que creó como parte de esta publicación:

  • robot de Amazon Lex
  • cubo S3
  • Colección OpenSearch Serverless (esto no se elimina automáticamente cuando elimina su base de conocimientos)
  • Bases de conocimiento

Conclusión

El nuevo QnAIntent en Amazon Lex permite conversaciones naturales al conectar a los clientes con fuentes de conocimiento seleccionadas. Desarrollado por Amazon Bedrock, QnAIntent comprende preguntas en lenguaje natural y responde de manera conversacional, manteniendo a los clientes interesados ​​con respuestas de seguimiento contextuales.

QnAIntent pone a su alcance las últimas innovaciones para transformar las preguntas frecuentes estáticas en diálogos fluidos que resuelvan las necesidades de los clientes. Esto ayuda a escalar un autoservicio excelente para deleitar a los clientes.

Pruébelo usted mismo. ¡Reinventa la experiencia de tus clientes!


Sobre el Autor

Thomas Rindfuss Thomas Rinfuss es arquitecto sénior de soluciones en el equipo de Amazon Lex. Inventa, desarrolla, crea prototipos y evangeliza nuevas características y soluciones técnicas para servicios de Language AI que mejoran la experiencia del cliente y facilitan la adopción.