Use la IA generativa en la roca madre de Amazon para una generación de recomendaciones mejorada en el mantenimiento de equipos

En el mundo de la fabricación, las ideas valiosas de los informes de servicio a menudo permanecen subutilizadas en los sistemas de almacenamiento de documentos. Esta publicación explora cómo Servicios web de Amazon (AWS) Los clientes pueden crear una solución que automatice la digitalización y extracción de información crucial de muchos informes utilizando IA generativa.

La solución usa Amazon Nova Pro en Roca madre de Amazon y Bases de conocimiento de Amazon Bedrock Para generar acciones recomendadas que estén alineadas con el estado del equipo observado, utilizando una base de conocimiento existente de recomendaciones de expertos. La base de conocimiento se expande con el tiempo a medida que se usa la solución.

Amazon Bedrock es un servicio totalmente administrado que ofrece una opción de modelos de cimientos de alto rendimiento (FMS) de las principales compañías de IA como AI21 Labs, Anthrope, Cohere, Meta, Stability AI, Mistral y Amazon a través de una sola API, junto con un amplio conjunto de capacidades para construir aplicaciones generativas de AI con seguridad, privacidad y AI responsable.

Base de conocimiento de Amazon Bedrock Ofrece flujos de trabajo de generación de recuperación (RAG) totalmente administrados, de extremo a extremo para crear aplicaciones de IA generativas de latencia altamente precisas, de baja latencia y personalizadas mediante la incorporación de información contextual de las fuentes de datos de su empresa, lo que lo convierte en un servicio bien adecuado para almacenar recomendaciones de expertos de los ingenieros de los informes anteriores y permitir que FMS personalice con precisión sus respuestas.

Los ciclos de servicio y mantenimiento tradicionales dependen de la presentación de informes manuales por parte de ingenieros con conocimiento experto. Tiempo dedicado a hacer referencia a informes pasados puede conducir a retrasos operativos y interrupciones comerciales. Esta solución capacita a los equipos de mantenimiento de equipos para:

  • Informe de inspección e informes de mantenimiento (en múltiples idiomas) y extrae el estado del equipo y las acciones abiertas, aumentando la visibilidad y la capacidad de acción
  • Genere recomendaciones robustas y confiables utilizando la experiencia de los ingenieros experimentados
  • Expanda la base de conocimiento inicial construida por ingenieros expertos para incluir recomendaciones generadas válidas
  • Acelere los tiempos de mantenimiento y evite el tiempo de inactividad no planificado con una herramienta centralizada de IA que agiliza los procesos de mantenimiento de sus equipos en AWS

Para ayudarlo a implementar esta solución, proporcionamos un repositorio de GitHub que contiene un código desplegable y las plantillas de infraestructura como código (IAC). Puede configurar rápidamente y personalizar la solución en su propio entorno AWS utilizando el Repositorio de Github.

Descripción general de la solución

El siguiente diagrama es una representación de arquitectura de la solución presentada en esta publicación, que muestra los diversos servicios de AWS en uso. Usando este repositorio de GitHub, puede implementar la solución en su cuenta de AWS para probarla.

Los siguientes son flujos de trabajo clave de la solución:

  • Información de informe de servicio automatizado con Amazon Textract – El informe de Ingestión de Ingestión procesa y traduce informes de servicio en un formato estandarizado. Este flujo de trabajo usa Amazon Textract Para el reconocimiento de caracteres ópticos (OCR), Amazon traducir para la traducción del idioma, y Amazon Comprender para la detección del idioma. Estos servicios proporcionan informes que se procesan y preparan con precisión para la extracción de metadatos, independientemente de su formato o lenguaje original.
  • Generación de recomendaciones inteligentes usando trapo – Después de la ingestión, el proceso de extracción y estandarización de metadatos utiliza arquitectura RAG con el Amazon Nova Pro en Amazon Bedrock y bases de conocimiento de Amazon Bedrock. Este flujo de trabajo extrae metadatos cruciales de los informes y utiliza el proceso RAG para generar recomendaciones de mantenimiento precisas y procesables. Los metadatos están estandarizados para consistencia y confiabilidad, proporcionando una base sólida para las recomendaciones.
  • Validación de expertos con Amazon Sagemaker Ground Truth – Para validar y refinar las recomendaciones generadas, la solución incorpora un proceso de revisión de expertos utilizando Amazon Sagemaker Ground Truth. Este flujo de trabajo implica la creación de trabajos de etiquetado personalizados donde los expertos revisan y validan las recomendaciones de precisión y confiabilidad. Este bucle de retroalimentación ayuda continuamente al rendimiento del modelo, haciendo que las recomendaciones de mantenimiento sean más confiables.
  • Ampliar la base de conocimiento para el procesamiento futuro – La base de conocimiento para esta herramienta debe ampliarse con nuevas reglas para cada tipo de equipo, extraída de dos fuentes principales:
    • Análisis de equipos pasados e informes de mantenimiento para obtener datos etiquetados sobre acciones recomendadas.
    • Reforzando recomendaciones válidas generadas por la herramienta y verificadas por expertos humanos.

Este conjunto compilado de reglas es revisado por expertos, criticidad asignada y luego sincronizada automáticamente en las bases de conocimiento de la roca madre de Amazon para mejorar continuamente la confianza de la solución en la generación de la próxima acción recomendada. expansión en varios entornos. Los equipos tienen la flexibilidad de implementar eficientemente la solución a los clientes en todo el mundo, mejorando las operaciones de mantenimiento y reduciendo los tiempos de inactividad no planificados. En las siguientes secciones, caminamos a través de los pasos para personalizar e implementar la solución.

Requisitos previos

Para implementar la solución, debe tener una cuenta de AWS con los permisos apropiados y el acceso a Amazon Nova FMS en Amazon Bedrock. Esto se puede habilitar en la página de la consola Bedrock de Amazon.

Clon el repositorio de Github

Clonar el Repositorio de Github que contiene el IAC para la solución a su máquina local.

Personalizar la función de procesamiento de informes

Para personalizar el ReportsProcessing AWS Lambda función, siga estos pasos:

  1. Abrir el lambdas/python/ReportsProcessing/extract_observations.py archivo. Este archivo contiene la lógica para el ReportsProcessing Función lambda.
  2. Modifique el código en este archivo para incluir su lógica personalizada para procesar informes basados en sus estilos de documento específicos. Por ejemplo, es posible que deba modificar el extract_metadata función para manejar diferentes formatos de informe o ajustar la lógica en el standardize_metadata funcionar para cumplir con los estándares de su organización.

Personalizar la función de Generación de recomendaciones

Para personalizar el RecommendationGeneration Lambda, sigue estos pasos:

  1. Abrir el lambdas/python/RecommendationGeneration/generate_recommendations.pyarchivo. Este archivo contiene la lógica para el RecommendationGeneration Función Lambda, que usa la arquitectura RAG.
  2. Modifique el código en este archivo para incluir su lógica personalizada para generar recomendaciones en función de sus requisitos específicos. Por ejemplo, es posible que deba ajustar el query_formulation() función para modificar el mensaje enviado a la sonnet Claude 3 de Anthrope o actualizar el retrieve_rules Funcionar para personalizar el proceso de recuperación desde la base de conocimiento.

Actualizar la configuración de Terraform

Si realizó cambios en los nombres de funciones, roles u otros recursos de AWS de Lambda, actualice los archivos de configuración de Terraform correspondientes en el terraform directorio para reflejar estos cambios.

Inicializar el directorio de trabajo de Terraform

Abra una terminal o símbolo del sistema y navegue al terraform directorio dentro del repositorio clonado. Ingrese el siguiente comando para inicializar el directorio de trabajo de Terraform:

Vista previa de los cambios de terraform

Antes de aplicar los cambios, presente la vista previa del plan de ejecución de Terraform ingresando el siguiente comando:

Este comando le mostrará los cambios que Terraform planea hacer a su infraestructura de AWS.

Desplegar la pila de Terraform

Si está satisfecho con los cambios planificados, implementa la pila de Terraform en su cuenta AWS ingresando el siguiente comando:

Ingresar yes y presionar Ingresar para proceder con la implementación.

Crea una base de conocimiento de Amazon Bedrock

Después de implementar la pila de Terraform, cree una base de conocimiento de Amazon Bedrock para almacenar y recuperar las reglas y recomendaciones de mantenimiento:

aws bedrock-agent create-knowledge-base \
--knowledge-base-name "EquipmentMaintenanceKB" \
--description "Knowledge base for equipment maintenance recommendations" \
--storage-configuration '{ "type": "VECTOR_STORE", "vectorStore": { "embeddingModelArn": "arn:aws:bedrock:{aws-region}::foundation-model/amazon.titan-embed-text-v1" } }'

Una vez que se crean las bases de conocimiento, no olvide actualizar las recomendaciones Generar la variable de entorno de función Lambda con la ID de base de conocimiento apropiada.

Cargar un informe de prueba y validar la solución para recomendaciones generadas

Para probar la solución, cargue un informe de mantenimiento de la muestra al designado Servicio de almacenamiento simple de Amazon (Amazon S3) Bucket:

aws s3 cp sample_report.pdf s3://iac-created-reports-bucket/incoming

Una vez que se cargue el archivo, navegue al creado Funciones del paso de AWS Máquina de estado y valida que ocurre una ejecución exitosa. La salida de una ejecución exitosa debe contener observaciones extraídas del documento de entrada, así como recomendaciones recientemente generadas que se han extraído de la base de conocimiento.

Limpiar

Cuando haya terminado con esta solución, limpie los recursos que creó para evitar cargos continuos.

Conclusión

Esta publicación proporcionó una descripción general de la implementación de una solución de mantenimiento basada en el riesgo para evitar posibles fallas y evitar el tiempo de inactividad del equipo para los equipos de mantenimiento. Esta solución destaca los beneficios de Amazon Bedrock. Al usar Amazon Nova Pro con RAG para los informes de mantenimiento de su equipo, los ingenieros y los científicos pueden centrar sus esfuerzos en mejorar la precisión de las recomendaciones y aumentar la velocidad de desarrollo. Las capacidades clave de esta solución incluyen:

  • Ingestión automatizada y estandarización de informes de mantenimiento utilizando Amazon Textract, Amazon Comprend y Amazon Translate
  • Generación de recomendaciones inteligentes impulsada por Rag y Amazon Nova Pro en Amazon Bedrock
  • Expansión continua de validación de expertos y base de conocimiento utilizando la verdad de Sagemaker Ground
  • Despliegue escalable y listo para la producción utilizando IAC con Terraform

Al utilizar la amplitud de los servicios de AWS y la flexibilidad de Amazon Bedrock, los equipos de mantenimiento de equipos pueden racionalizar sus operaciones y reducir los tiempos de inactividad no planificados.

Servicios profesionales de AWS está listo para ayudar a su equipo a desarrollar soluciones de IA generativas escalables y listas para la producción en AWS. Para obtener más información, consulte la página de servicios profesionales de AWS o comuníquese con su gerente de cuenta para ponerse en contacto.


Sobre los autores

Jyothsna Puttanna es un consultor de IA/ML en AWS Professional Services. Jyothsna trabaja en estrecha colaboración con los clientes que construyen sus soluciones de aprendizaje automático en AWS. Se especializa en capacitación distribuida, experimentación e IA generativa.

Shantanu Sinha es gerente senior de participación en AWS Professional Services, con sede en Berlín, Alemania. El enfoque de Shantanu es utilizar la IA generativa para desbloquear el valor comercial e identificar oportunidades comerciales estratégicas para sus clientes.

Selena Tabbara es un científico de datos de AWS Professional Services especializado en AI/ML y soluciones generativas de IA para clientes empresariales en la industria de energía, automotriz y fabricación.