0htbbl06t9qqisiol.jpeg

con Ollama, LangChain, LangGraph (sin GPU, sin APIKEY)

Foto por Mathieu popa en desempaquetar

(Todas las imágenes son del autor a menos que se indique lo contrario)

Introducción

Ingeniería inmediata es la práctica de diseñar y refinar indicaciones (entradas de texto) para mejorar el comportamiento de los modelos de lenguaje grande (LLM). El objetivo es obtener las respuestas deseadas del modelo elaborando cuidadosamente las instrucciones. Las técnicas de incitación más utilizadas son:

  • Cadena de pensamiento: Implica generar un proceso de razonamiento paso a paso para llegar a una conclusión. Se empuja al modelo a “pensar en voz alta” al establecer explícitamente los pasos lógicos que conducen a la respuesta final.
  • Reaccionar (Razón+Acto): Combina el razonamiento con la acción. El modelo no sólo piensa en un problema sino que también toma acciones basadas en su razonamiento. Por lo tanto, es más interactivo a medida que el modelo alterna entre pasos de razonamiento y acciones, refinando su enfoque de forma iterativa. Básicamente, es un bucle de “pensamiento”, “acción”, “observación”.

Hagamos un ejemplo: imaginemos pedirle a una IA que «encuentre la mejor computadora portátil por menos de $1000».

Respuesta normal: “Lenovo Thinkpad”.

– Respuesta de cadena de pensamiento: “Necesito considerar factores como el rendimiento, la duración de la batería y…