0kxi38ujij9h8yhul.jpeg

Este tutorial explica cómo crear una API de análisis de sentimientos en contenedores utilizando Hugging Face, FastAPI y Docker.

Foto por Josué Hoehne en desempaquetar

Muchos proyectos de IA fracasan, según varios informes (p.ej. Revisión empresarial de Hardvard). Especulo que parte de la barrera para el éxito de un proyecto de IA es el paso técnico desde haber construido un modelo hasta hacerlo ampliamente disponible para otros en su organización.

Entonces, ¿cómo haces para que tu modelo esté fácilmente disponible para el consumo? Una forma es envolverlo en una API y contenerlo para que su modelo pueda exponerse en cualquier servidor con Docker instalado. Y eso es exactamente lo que haremos en este tutorial.

Tomaremos un modelo de análisis de sentimientos de Hugging Face (una elección arbitraria solo para tener un modelo que sea fácil de mostrar como ejemplo), escribiremos un punto final API que exponga el modelo usando FastAPI y luego empaquetaremos nuestra aplicación de análisis de sentimientos con Estibador. Proporcionaré ejemplos de código y explicaciones en todo momento.

El código del tutorial ha sido probado en Linux y debería funcionar también en Windows.

Usaremos la clase Pipeline de Hugging Face’s transformers biblioteca. Ver Tutorial de Hugging Face para obtener una introducción al Pipeline si no está familiarizado con él.

La canalización facilita el uso de modelos como los modelos de sentimiento. Echa un vistazo a Hugging Face tutorial de análisis de sentimiento para una introducción completa al concepto.

Puede crear una instancia de la tubería con varios argumentos de constructor diferentes. Una forma es pasar un tipo de tarea:

from transformers import pipeline

pipe = pipeline(task="sentiment-analysis")

Esto utilizará el modelo predeterminado de Hugging Face para la tarea proporcionada.

Otra forma es pasar el argumento del modelo especificando qué modelo desea utilizar. Tu no…