14dzzgua3jodgpftucbyqkg.png

Personalice, ejecute y guarde LLM usando OLLAMA y Modelfile

En este artículo, le mostraré cómo usar Modelfile en Ollama para cambiar el comportamiento de un LLM existente (Llama2) al interactuar con él. También le mostraré cómo guardar su modelo recién personalizado en su espacio de nombres personal en el servidor de Ollama.

Sé que puede resultar un poco confuso con todas las diferencias”.llamas” volador alrededor. Solo recuerde, Ollama es la empresa que le permite descargar y ejecutar localmente muchos LLM diferentes. Mientras que Llama2 es un LLM particular creado por Meta, el propietario de Facebook. Aparte de esta relación, no están conectados de ninguna otra manera.

Si nunca antes has oído hablar de Ollama, te recomiendo que consultes mi artículo a continuación, donde profundizo sobre qué es Ollama y cómo instalarlo en tu sistema.

¿Qué es un archivo modelo?

En Ollama, un modelfile se refiere a un archivo de configuración que define el plan para crear y compartir modelos con Ollama.

El archivo modelo contiene información como,

  1. Referencia del modelo base. Todos los archivos de modo deben tener un modelo que utilicen como base para cualquier modelo nuevo.
  2. Parámetros. Estos especifican cosas como la temperature, top_k and top_p que debería aplicarse al nuevo modelo. Hablaremos más sobre estos más adelante.
  3. Plantilla. Esto especifica cuál será el mensaje final que se pasará al LLM.
  4. Sistema. Podemos usar este comando para determinar cómo se comporta el sistema en general.

Hay otras propiedades que el archivo modelo puede utilizar, pero solo usaremos las anteriores. Hay un enlace a la documentación de Ollama al final del artículo si desea obtener más información sobre esto.

El modelo básico

Lo primero que debemos hacer es identificar un modelo existente para poder examinar sus propiedades y realizarle los cambios que queramos. Para eso voy…