Cuando pensamos en la inteligencia humana, la memoria es una de las primeras cosas que me viene a la mente. Es lo que nos permite aprender de nuestras experiencias, adaptarnos a nuevas situaciones y tomar decisiones más informadas con el tiempo. Del mismo modo, los agentes de IA se vuelven más inteligentes con memoria. Por ejemplo, un agente puede recordar sus compras pasadas, su presupuesto, sus preferencias y sugerir regalos para sus amigos en función del aprendizaje de las conversaciones pasadas.
Los agentes generalmente dividen las tareas en pasos (Plan → Búsqueda → API de llamada → analizar → Escribir), pero luego podrían olvidar lo que sucedió en los pasos anteriores sin memoria. Los agentes repiten las llamadas de la herramienta, obtienen los mismos datos nuevamente o pierden reglas simples como “siempre consulte al usuario por su nombre”. Como resultado de repetir el mismo contexto una y otra vez, los agentes pueden gastar más tokens, lograr resultados más lentos y proporcionar respuestas inconsistentes. La industria ha gastado colectivamente miles de millones en bases de datos vectoriales e integrar la infraestructura para resolver lo que es, en su núcleo, un problema de persistencia de datos para los agentes de IA. Estas soluciones crean sistemas de caja negra donde los desarrolladores no pueden inspeccionar, consultar o comprender por qué se recuperaron ciertos recuerdos.
El Gibsona Equipo construido Memori Para solucionar este problema. Memori es un motor de memoria de código abierto que proporciona memoria persistente e inteligente para cualquier LLM utilizando bases de datos SQL estándar (PostgreSQL/MySQL). En este artículo, exploraremos cómo Memori aborda los desafíos de la memoria y lo que ofrece.
La naturaleza sin estado de la IA moderna: el costo oculto
Los estudios indican que los usuarios gastan del 23 al 31% de su tiempo proporcionando contexto que ya han compartido en conversaciones anteriores. Para un equipo de desarrollo que utiliza asistentes de IA, esto se traduce en:
- Desarrollador individual: ~ Contexto repetido de 2 horas/semana
- Equipo de 10 personas: ~ 20 horas/semana de productividad perdida
- Enterprise (1000 desarrolladores): ~ 2000 horas/semana o $ 4 millones/año en comunicación redundante
Más allá de la productividad, esta repetición rompe la ilusión de la inteligencia. Una IA que no puede recordar su nombre después de cientos de conversaciones no se siente inteligente.
Limitaciones actuales de LLM sin estado
- Sin aprender de las interacciones: Cada error se repite, cada preferencia debe ser reexpresada
- Flujos de trabajo rotos: Los proyectos de múltiples sesiones requieren una reconstrucción de contexto constante
- Sin personalización: La IA no puede adaptarse a usuarios o equipos individuales
- Ideas perdidas: Los patrones valiosos en las conversaciones nunca se capturan
- Desafíos de cumplimiento: No hay una ruta de auditoría de la toma de decisiones de IA
La necesidad de memoria persistente y consultable
Lo que la IA realmente necesita es memoria persistente y consultable Al igual que cada aplicación se basa en una base de datos. Pero no puede simplemente usar su base de datos de aplicaciones existente como memoria AI porque no está diseñada para la selección de contexto, la clasificación de relevancia o la inyección del conocimiento en el flujo de trabajo de un agente. Es por eso que construimos una capa de memoria que es esencial para que la IA y los agentes se sientan realmente inteligentes.
Por qué SQL es importante para la memoria AI
Las bases de datos SQL han existido durante más de 50 años. Son la columna vertebral de casi todas las aplicaciones que usamos hoy, desde aplicaciones bancarias hasta redes sociales. ¿Por qué? Porque SQL es simple, confiable y universal.
- Todo desarrollador conoce SQL. No necesitas aprender un nuevo lenguaje de consulta.
- Confiabilidad probada en batalla. SQL ha ejecutado los sistemas más críticos del mundo durante décadas.
- Consultas poderosas. Puede filtrar, unir y agregar datos con facilidad.
- Fuertes garantías. Transacciones ácidas Asegúrese de que sus datos se mantengan consistentes y seguros.
- Enorme ecosistema. Las herramientas para la migración, las copias de seguridad, los paneles y el monitoreo están en todas partes.
Cuando se basa en SQL, está parado en décadas de tecnología probada, sin reinventar la rueda.
Los inconvenientes de las bases de datos vectoriales
La mayoría de los sistemas de memoria de IA de la competencia actual se basan en bases de datos vectoriales. En el papel, suenan avanzados: le permiten almacenar incrustaciones y buscar por similitud. Pero en la práctica, vienen con costos ocultos y complejidad:
- Múltiples partes móviles. Una configuración típica necesita una DB vectorial, un caché y un DB SQL solo para funcionar.
- Lock-in de proveedor. Sus datos a menudo viven dentro de un sistema patentado, lo que dificulta moverse o auditar.
- Recuperación de caja negra. No puedes ver fácilmente por qué Se sacó un cierto recuerdo.
- Caro. Los costos de infraestructura y uso se suman rápidamente, especialmente a escala.
- Difícil de depurar. Los incrustaciones no son legibles por humanos, por lo que no puede consultar con SQL y verificar los resultados.
Así es como se compara con MemoriSQL-First Design:
| Aspecto | Vector Base de datos / soluciones de trapo | Enfoque de Memori |
|---|---|---|
| Servicios requeridos | 3–5 (vector db + caché + sql) | 1 (solo SQL) |
| Bases de datos | Vector + Cache + SQL | SQL solo |
| Lenguaje de consulta | API patentada | SQL estándar |
| Depuración | Incruscaciones de caja negra | Consultas SQL legibles |
| Respaldo | Orquestación compleja | CP Memory.db Backup.db o PG_BaseBackup |
| Proceso de datos | Incrustos: ~ $ 0.0001 / 1K Tokens (OpenAi) → Barato por adelantado | Extracción de entidad: GPT-4O a ~ $ 0.005 / 1K Tokens → más alto por adelantado |
| Costos de almacenamiento | $ 0.10–0.50 / GB / mes (Vector DBS) | ~ $ 0.01–0.05 / GB / mes (SQL) |
| Costos de consulta | ~ $ 0.0004 / 1K vectores buscados | Cerca de cero (consultas SQL estándar) |
| Infraestructura | Partes móviles múltiples, mayor mantenimiento | Base de datos única, simple de administrar |
¿Por qué funciona?
Si cree que SQL no puede manejar la memoria a escala, piense de nuevo. Sqliteuna de las bases de datos SQL más simples, es la base de datos más ampliamente implementada del mundo:
- Encima 4 mil millones despliegues
- Se ejecuta en cada iPhone, dispositivo Android y navegador web
- Ejecutar billones de consultas todos los días
Si SQLite puede manejar esta carga de trabajo masiva con facilidad, ¿por qué construir memoria de IA en racimos de vectores distribuidos caros?
Descripción general de la solución MEMORI
Memori Utiliza extracción de entidad estructurada, mapeo de relaciones y recuperación basada en SQL para crear memoria de IA transparente, portátil y consultable. MEMOMI utiliza múltiples agentes que trabajan juntos para promover de manera inteligente los recuerdos esenciales a largo plazo al almacenamiento a corto plazo para una inyección de contexto más rápida.
Con una sola línea de código memori.enable() Cualquier LLM gana la capacidad de recordar conversaciones, aprender de las interacciones y mantener el contexto en todas las sesiones. Todo el sistema de memoria se almacena en una base de datos SQLite estándar (o PostgreSQL/MySQL para implementaciones empresariales), lo que la hace completamente portátil, auditable y propiedad del usuario.
Diferenciadores clave
- Simplicidad radical: Una línea para habilitar la memoria para cualquier marco LLM (OpenAi, Anthrope, Litellm, Langchain)
- Propiedad de datos verdadero: Memoria almacenada en bases de datos SQL estándar que los usuarios controlan completamente
- Transparencia completa: Cada decisión de memoria se consulta con SQL y totalmente explicable
- Bloqueo de proveedores cero: Exporte toda su memoria como un archivo SQLite y muévase a cualquier parte
- Eficiencia de rentabilidad: 80-90% más barato que las soluciones de la base de datos vectorial a escala
- Cumplimiento listo: El almacenamiento basado en SQL permite senderos de auditoría, residencia de datos y cumplimiento reglamentario
Casos de uso de Memori
- Experiencia de compra inteligente con un agente de IA que recuerda las preferencias de los clientes y el comportamiento de compra.
- Asistentes personales de IA que recuerdan las preferencias y el contexto del usuario
- Bots de atención al cliente que nunca hacen la misma pregunta dos veces
- Tutores educativos que se adaptan al progreso de los estudiantes
- Sistemas de gestión del conocimiento del equipo con memoria compartida
- Aplicaciones centradas en el cumplimiento que requieren pistas de auditoría completas
Métricas de impacto empresarial
Basado en implementaciones tempranas de los usuarios de nuestra comunidad, identificamos que Memori Ayuda con lo siguiente:
- Tiempo de desarrollo: Reducción del 90% en la implementación del sistema de memoria (horas versus semanas)
- Costos de infraestructura: Reducción del 80-90% en comparación con las soluciones de la base de datos Vector
- Rendimiento de la consulta: Tiempo de respuesta de 10-50 ms (2-4x más rápido que la búsqueda de similitud vectorial)
- Portabilidad de la memoria: 100% de los datos de memoria portátiles (frente al 0% con las bases de datos de vectores de nubes)
- Preparación de cumplimiento: Capacidad de auditoría completa de SQL desde el primer día
- Sobrecarga de mantenimiento: Sistemas de vectores de base de datos individuales versus vectores distribuidos
Innovación técnica
Memori Presenta tres innovaciones centrales:
- Sistema de memoria de modo dual: Combinando la memoria de trabajo “consciente” con búsqueda inteligente “automática”, imitando patrones cognitivos humanos
- Capa de integración universal: Inyección de memoria automática para cualquier LLM sin código específico de marco
- Arquitectura de múltiples agentes: Múltiples agentes de IA especializados que trabajan juntos para una memoria inteligente
Soluciones existentes en el mercado
Ya hay varios enfoques para dar a los agentes de IA alguna forma de memoria, cada una con sus propias fortalezas y compensaciones:
- MEM0 → Una solución rica en características que combina redis, bases de datos vectoriales y capas de orquestación para administrar la memoria en una configuración distribuida.
- Memoria langchain → Proporciona abstracciones convenientes para los desarrolladores que se construyen dentro del marco Langchain.
- Bases de datos vectoriales (Pinecone, Weaviate, Chroma) → Centrado en la búsqueda de similitud semántica utilizando incrustaciones, diseñadas para casos de uso especializados.
- Soluciones personalizadas → Diseños internos adaptados a necesidades comerciales específicas, ofreciendo flexibilidad pero que requieren un mantenimiento significativo.
Estas soluciones demuestran las diversas direcciones que la industria está tomando para abordar el problema de la memoria. Memori entra en el paisaje con una filosofía diferente, llevando la memoria a un Formulario de código abierto de SQL Eso es simple, transparente y listo para la producción.
MEMORI construido en una fuerte infraestructura de base de datos
Además de esto, los agentes de IA necesitan no solo la memoria sino también una red troncal de la base de datos para que esa memoria sea utilizable y escalable. Piense en los agentes de IA que pueden ejecutar consultas de forma segura en una caja de datos aislada de la base de datos, optimizar las consultas a lo largo del tiempo y la autoscala a pedido, como iniciar una nueva base de datos para que un usuario mantenga sus datos relevantes separados.
Una infraestructura de base de datos robusta de Gibsonai Backs Memori. Esto hace que la memoria sea confiable y lista para la producción con:
- Provisión instantánea
- Autesis a pedido
- Ramificación de la base de datos
- Versión de la base de datos
- Optimización de consultas
- Punto de recuperación
Visión estratégica
Mientras que los competidores persiguen la complejidad con soluciones de vectores distribuidos e integridades patentadas, Memori Adopta la confiabilidad comprobada de las bases de datos SQL que tienen aplicaciones alimentadas durante décadas.
El objetivo no es construir el sistema de memoria más sofisticado, sino el más práctico. Al almacenar la memoria AI en las mismas bases de datos que ya ejecutan las aplicaciones del mundo, Memori habilita un futuro donde la memoria AI es tan portátil, consultable y manejable como cualquier otro datos de aplicación.
Mira el Página de Github aquí. Gracias al equipo de Gibsonai por el liderazgo/recursos de pensamiento y para apoyar este artículo.
Asif Razzaq es el CEO de MarktechPost Media Inc .. Como empresario e ingeniero visionario, ASIF se compromete a aprovechar el potencial de la inteligencia artificial para el bien social. Su esfuerzo más reciente es el lanzamiento de una plataforma de medios de inteligencia artificial, MarktechPost, que se destaca por su cobertura profunda de noticias de aprendizaje automático y de aprendizaje profundo que es técnicamente sólido y fácilmente comprensible por una audiencia amplia. La plataforma cuenta con más de 2 millones de vistas mensuales, ilustrando su popularidad entre el público.