En este tutorial, exploramos cómo construir un agente inteligente que recuerde, aprenda y se adapte a nosotros con el tiempo. Implementamos un sistema de personalización y memoria persistente utilizando una lógica simple basada en reglas para simular cómo los marcos modernos de IA agente almacenan y recuperan información contextual. A medida que avanzamos, vemos cómo las respuestas del agente evolucionan con la experiencia, cómo el deterioro de la memoria ayuda a prevenir la sobrecarga y cómo la personalización mejora el rendimiento. Nuestro objetivo es comprender, paso a paso, cómo la persistencia transforma un chatbot estático en un compañero digital en evolución y consciente del contexto. Consulta los CÓDIGOS COMPLETOS aquí.
self.decay_half_life = decay_half_life def _decay_factor(self, item:MemoryItem): dt = time.time() – item.t devuelve 0.5 ** (dt / self.decay_half_life)
Establecimos las bases para la memoria a largo plazo de nuestro agente. Definimos la clase MemoryItem para contener cada pieza de información y construir un MemoryStore con un mecanismo de caída exponencial. Comenzamos a sentar las bases para almacenar y envejecer información como la memoria de un ser humano. Consulta los CÓDIGOS COMPLETOS aquí.
para ello en self.items: decay = self._decay_factor(it) sim = len(set(query.lower().split()) & set(it.content.lower().split())) final = (it.score * decay) + sim scoring.append((final, it)) scoring.sort(key=lambda x: x[0]reverso=Verdadero) retorno [it for _, it in scored[:topk] if _ > 0]def limpieza(self, min_score=0.1): nuevo = []
para ello en self.items: if it.score * self._decay_factor(it) > min_score: new.append(it) self.items = new
Ampliamos el sistema de memoria agregando métodos para insertar, buscar y limpiar recuerdos antiguos. Implementamos una función de similitud simple y una rutina de limpieza basada en el deterioro, lo que permite al agente recordar hechos relevantes y olvidar automáticamente los débiles u obsoletos. Consulta los CÓDIGOS COMPLETOS aquí.
respuesta = self._llm_sim(user_input, ctx) self.memory.add(“dialog”, f”el usuario dijo: {user_input}”, 0.6) self.memory.cleanup() devolver respuesta, ctx
Diseñamos un agente inteligente que utiliza la memoria para informar sus respuestas. Creamos un simulador de modelo de lenguaje simulado que adapta las respuestas en función de las preferencias y temas almacenados. Al mismo tiempo, la función de percepción permite al agente capturar dinámicamente nuevos conocimientos sobre el usuario. Consulta los CÓDIGOS COMPLETOS aquí.
Ahora le damos a nuestro agente la capacidad de actuar y evaluarse a sí mismo. Le permitimos recordar recuerdos para dar forma a respuestas contextuales y agregar un pequeño ciclo de evaluación para comparar respuestas personalizadas con una línea de base sin memoria, cuantificando cuánto ayuda la memoria. Consulta los CÓDIGOS COMPLETOS aquí.
“I prefer short answers.”,
“I like writing about RAG and agentic AI.”,
“Topic: cybersecurity, phishing, APTs.”,
“My current project is to build an agentic RAG Q&A system.”
]
para inp en entradas: agent.perceive(inp) print(“\n=== Ahora pregúntele algo al agente ===”) user_q = “Recomendar qué escribir a continuación en mi blog” ans, ctx = agent.act(user_q) print(“USUARIO:”, user_q) print(“AGENTE:”, ans) print(“MEMORIA USADA:”, ctx) print(“\n=== Evaluar beneficio de personalización ===”) p, c, g = evalua_personalización(agente) print(“Con memoria :”, p) print(“Arranque en frío :”, c) print(“Ganancia de personalización (caracteres):”, g) print(“\n=== Instantánea de memoria actual ===”) para ello en agent.memory.items: print(f”- {it.kind} | {it.content[:60]}…. | puntuación~{ronda(it.score,2)}”)
Finalmente, ejecutamos la demostración completa para ver a nuestro agente en acción. Le proporcionamos entradas de usuario, observamos cómo recomienda acciones personalizadas y verificamos su instantánea de memoria. Asistimos al surgimiento del comportamiento adaptativo, prueba de que la memoria persistente transforma un guión estático en un compañero de aprendizaje.
En conclusión, demostramos cómo añadir memoria y personalización hace que nuestro agente sea más humano, capaz de recordar preferencias, adaptar planes y olvidar detalles obsoletos de forma natural. Observamos que incluso mecanismos simples como la decadencia y la recuperación mejoran significativamente la relevancia del agente y la calidad de la respuesta. Al final, nos damos cuenta de que la memoria persistente es la base de la IA agente de próxima generación, una que aprende continuamente, adapta las experiencias de forma inteligente y mantiene el contexto de forma dinámica en una configuración totalmente local y fuera de línea.
Consulta los CÓDIGOS COMPLETOS aquí. No dude en consultar nuestra página de GitHub para tutoriales, códigos y cuadernos. Además, no dude en seguirnos en Twitter y no olvide unirse a nuestro SubReddit de más de 100.000 ML y suscribirse a nuestro boletín. ¡Esperar! estas en telegrama? Ahora también puedes unirte a nosotros en Telegram.
Asif Razzaq es el director ejecutivo de Marktechpost Media Inc.. Como empresario e ingeniero visionario, Asif está comprometido a aprovechar el potencial de la inteligencia artificial para el bien social. Su esfuerzo más reciente es el lanzamiento de una plataforma de medios de inteligencia artificial, Marktechpost, que se destaca por su cobertura en profundidad del aprendizaje automático y las noticias sobre aprendizaje profundo que es técnicamente sólida y fácilmente comprensible para una amplia audiencia. La plataforma cuenta con más de 2 millones de visitas mensuales, lo que ilustra su popularidad entre el público.
🙌 Siga MARKTECHPOST: agréguenos como fuente preferida en Google.