Implementación de modelos con FastAPI, Azure y Docker | de Sabrine Bendimerad | septiembre de 2024

Una guía completa para servir un modelo de aprendizaje automático con FastAPI

pixabay.com

Bienvenidos a este tercer artículo de mi Serie MLOps. En el primer artículoexploramos Docker y cómo simplifica el empaquetado de aplicaciones. En el segundo artículogestionamos modelos de aprendizaje automático utilizando flujo ml, Azury Estibador. Ahora, en esta tercera parte, uniremos todo creando un API rápida aplicación que sirve nuestro modelo previamente almacenado en Azure. ¡Esto nos permite crear un servicio de predicción al que se puede acceder globalmente!

Un API es como un puente. Cada vez que interactúas con una biblioteca en Python, estás usando su API. Es la parte pública de una aplicación con la que puedes interactuar, mientras que todo lo que hay detrás está oculto.

Las API se utilizan comúnmente para comunicarse con aplicaciones web y proporcionan un conjunto de URL que devuelven datos (usted envía una solicitud con algunos parámetros y recibe una respuesta). La mayoría de las veces, los datos regresan en formatos como JSON o XML, que son fáciles de analizar. Esto es diferente de los sitios web que devuelven HTML, que incluye información para representar páginas. Con las API, obtienes solo los datos sin procesar.

Algunas API son públicas, mientras que otras son privadas. Al crear una API, usted decide qué datos compartir, cómo…