Una implementación de codificación para construir una infraestructura de memoria nativa del agente con Memori para aplicaciones LLM persistentes multiusuario y multisesión
banner(“Parte 5: Transmisión”) mem.attribution(entity_id=”[email protected]”, Process_id=”asistente-personal”) flujo = client.chat.completions.create( modelo=MODELO, mensajes=[{“role”: “user”,
“content”: “In two sentences, what do you remember about me?”}]flujo=Verdadero, ) imprimir(“[stream] “, end=””) para fragmentos en la secuencia: d = fragmentos.elecciones[0].delta.content si d: print(d, end=””, Flush=True) print(); time.sleep(WRITE_DELAY) banner(“Parte 6: llamadas asincrónicas de LLM”) async def async_demo(): r = await async_client.chat.completions.create( modelo=MODELO, mensajes=[{“role”: “user”,
“content”: “What dietary restriction do I have? (asked async)”}]) devolver r.elecciones[0].message.content imprimir(“[async]”, asyncio.run(async_demo())) banner(“Parte 7: Mini agente de soporte en múltiples sesiones”) def support(user_id, Prompt): mem.attribution(entity_id=user_id, Process_id=”support-bot”) return Ask(prompt, system=( “Es un agente de atención al cliente tranquilo y servicial. ” “Utilice lo que recuerde sobre el usuario. Si no lo sabe, dígalo.” )) USUARIO = “[email protected]” mem.attribution(entity_id=USUARIO, process_id=”support-bot”) mem.new_session() print(“[support T1]”, soporte (USUARIO, “¡Hola! Soy Charlie, en el plan Pro. Correo electrónico: [email protected]. ” “Pregunta sobre facturación para el próximo mes.”)) time.sleep(WRITE_DELAY) mem.new_session() print(“[support T2]”, support(USUARIO, “Oye, otra vez. ¿Qué plan tengo y cuál es mi correo electrónico registrado?”)) banner(“Listo. Abre https://app.memorilabs.ai para inspeccionar recuerdos, ” “o usa Memori BYODB para apuntar a tu propio Postgres.”)