de OpenAI) publicó una esencia en GitHub a principios de este año.
Se llama “LLM Wiki”. Unas 1.500 palabras. Describe un patrón en el que construyes una wiki personal que un LLM mantiene para ti: un artefacto persistente y compuesto que se enriquece cada vez que le agregas algo.
Conocimiento compilado una vez y mantenido actualizado, en lugar de volver a obtenerlo desde cero en cada consulta.
La mayoría de la gente probablemente lo leyó, pensó “eso es interesante” y cerró la pestaña.
Lo construí y este artículo muestra cómo configurarlo y también les cuento lo que aprendí durante la implementación.
Toda conversación comienza en blanco.
Abres un chat, explicas quién eres, en qué estás trabajando, qué decidiste la semana pasada. Obtienes una respuesta útil. Cierras la pestaña. Mañana lo vuelves a hacer.
La herramienta funciona bien, ¡pero falta la capa de contexto debajo!
Es cierto que la memoria incorporada ayuda un poco.
Claude recuerda tu nombre y tu puesto de trabajo. ChatGPT sabe que prefieres las viñetas. Pero ninguno de los dos conoce los detalles sobre sus proyectos activos, el acuerdo que está a punto de cerrar, el proveedor que descartó el mes pasado o lo que sucedió en su cartera esta semana.
¡Ese tipo de estado operativo no existe en ningún lugar persistente!
La siguiente opción que eligen la mayoría de los ingenieros es RAG.
RAG es realmente útil, pero resuelve un problema diferente.
Vuelve a obtener conocimientos desde cero en cada consulta. Usted incrusta documentos, recupera fragmentos en el momento de la consulta y espera que aparezcan los fragmentos correctos. No se acumula nada.
Una pregunta que requiere sintetizar cinco documentos significa que el LLM tiene que encontrar y volver a ensamblar esos fragmentos cada vez.
El enfoque de bóveda de este artículo recopila el conocimiento una vez y lo mantiene actualizado. Cuando agrega algo nuevo, el LLM lo indexa, lo lee, lo integra, actualiza páginas relacionadas, señala contradicciones y mantiene referencias cruzadas.
La síntesis ya está hecha antes de que hagas la siguiente pregunta.
Karpathy lo expresa claramente: el wiki es un artefacto persistente y compuesto.
Las referencias cruzadas ya están ahí. El análisis no desaparece en el historial de chat. Se construye.
¡Hola! Mi nombre es Sara y cubro la construcción práctica de IA todas las semanas en Learn AI. Herramientas, patrones y lo que realmente falla en la producción. Gratis para suscribirse.
La arquitectura: dos carpetas y un archivo de esquema
La estructura central cabe en un único árbol de directorios:
vault/ ├── CLAUDE.md ← archivo de esquema, punto de entrada para cualquier IA ├── Raw/ ← documentos fuente inmutables │ ├── Notas de reunión/ │ ├── Documentos/ │ └── _pending.md ← cola de compilación └── Wiki/ ← LLM generado, estructurado, indexado ├── Proyectos/ ├── Personas/ ├── Decisiones/ ├── _hot.md ← caché activo ├── _log.md ← pista de auditoría └── _index.md ← índice maestro
(Esto es sólo un ejemplo. Siéntete libre de personalizarlo)
Raw es tu fuente de verdad.
Transcripciones de reuniones, hilos de Slack exportados, documentos extraídos de dondequiera que se realice su trabajo. La regla es absoluta: la IA lee Raw, nunca lo edita. Solo agregar.
Wiki es lo que la IA construye y mantiene. Un archivo por proyecto, persona, decisión o área de dominio. Estructurado, cruzado. Esto es lo que la IA lee primero cuando haces una pregunta.
Si ha trabajado con canalizaciones de datos, esta división le resultará familiar. Raw es tu zona de aterrizaje. Wiki es tu capa seleccionada. Si Wiki se desvía o se corrompe, se reconstruye desde Raw. Nunca pierdes la fuente.
El archivo de esquema se encuentra en la raíz y le dice a cualquier IA cómo está organizada la bóveda, qué leer primero y cuáles son las reglas operativas. Yo lo llamo CLAUDE.md. Si estás usando Codex, AGENTS.md funciona. Nómbralo como quieras, siempre y cuando apuntes la IA al inicio de cada sesión.
Esta es la parte que la mayoría de las implementaciones omiten y es la razón por la que la mayoría de las implementaciones mueren silenciosamente.
Una carpeta de archivos de rebajas no es un sistema. Estos tres archivos lo convierten en uno.
_hot.md es el caché. Cada mañana, la automatización diaria reescribe este archivo con los hilos más activos, los números clave o las fechas límite que surgieron y una línea sobre cualquier cosa urgente. Se mantiene por debajo de 500 tokens. Cuando abres una conversación y quieres una sesión informativa rápida, la IA lee primero _hot.md, sin necesidad de cargar el Wiki completo.
_pending.md es la cola. Cada vez que un archivo nuevo llega a Raw, su nombre de archivo y fecha se agregan aquí. Cuando se ejecuta la compilación semanal, lee este archivo, procesa cada entrada, la compila en Wiki y la marca. [COMPILED — 2026-05-01]. Sin este archivo, la ingesta diaria y la compilación semanal no pueden coordinarse. Obtienes archivos sin procesar huérfanos y un Wiki con semanas de retraso.
_log.md es la pista de auditoría. Cada ejecución automatizada añade una entrada con marca de tiempo: qué se ejecutó, qué archivos se procesaron, qué páginas Wiki se crearon o actualizaron. Si el sistema se desvía, así es como se encuentra dónde. La esencia de Karpathy tiene un consejo útil aquí: comience cada entrada del registro con un prefijo consistente como ## [2026-05-01] ingesta diaria para que todo el registro se pueda analizar mediante grep con herramientas básicas de Unix.
Una bóveda sin estos archivos acumula polvo. Con ellos, tienes un canal de trabajo.
El archivo de esquema: enseñarle a cualquier IA cómo leer su bóveda
CLAUDE.md es el punto de entrada. Cada sesión comienza aquí.
Qué contiene:
El mapa de carpetas (qué hay en Raw, qué hay en Wiki, para qué sirve cada subdirectorio) Orden de lectura (_hot.md siempre primero, luego el índice de dominio relevante) Reglas estrictas: “nunca editar archivos en Raw/”, “nunca inventar hechos que no estén presentes en los archivos fuente”, “siempre agregar a _log.md después de cada ejecución” Estructura del dominio (qué índices existen, cómo se nombran)
El archivo de esquema también es donde codifica los valores predeterminados de las solicitudes. Utilizo un patrón muy conocido, adaptado directamente al esquema:
Yo quiero [TASK] de modo que [WHAT SUCCESS LOOKS LIKE]. Primero, lea completamente los archivos cargados antes de responder. NO empieces a ejecutar todavía. Hazme preguntas aclaratorias para que podamos perfeccionar el enfoque juntos. Sólo comience a trabajar una vez que nos hayamos alineado.
Cuando esto se integra en su esquema, cada IA que lee su bóveda ya sabe que debe preguntar antes de ejecutar. Dejas de obtener resultados a medias de un modelo que asumió que entendía la tarea.
La filosofía motivadora que vale la pena codificar explícitamente:
El contexto supera las indicaciones. Alimente los archivos AI, no las instrucciones. Los ejemplos superan a las recetas. Muestra lo que quieres, no lo describas. Las restricciones vencen a las reglas. Di cuál NO es el resultado, deja que la IA elija cómo. Los goles superan las instrucciones. Di qué lograr, no cómo. Indique la tarea y los criterios de éxito. Dos frases.
La capa de automatización: tres cadencias, no una
He visto dos modos de falla: actualizas la bóveda manualmente y está bien durante una semana, luego pasa la vida y han pasado tres semanas desde que se archivó algo.
O crea un gran trabajo automatizado que ingiere, sintetiza y audita, todo en una sola pasada, y ahora su ingesta diaria consiste en editar archivos Wiki que nunca debería tocar.
La solución es separar los puestos de trabajo. Exploremoslo a continuación.
Diariamente (mañanas entre semana): solo ingestión
Saque de sus fuentes. Coloque archivos nuevos en Raw/. Ponlos en cola en _pending.md. Vuelva a escribir _hot.md según lo que surgió.
Sin ediciones Wiki. El trabajo diario es mecánico, rápido y lo suficientemente seguro como para realizarlo sin supervisión todos los días.
Así es como se ve el mensaje en la práctica:
Cada mañana de lunes a viernes, haga lo siguiente: 1. Verifique [your project management tool] para elementos actualizados o creados en las últimas 24 horas. 2. comprobar [your meeting notes source] para nuevas transcripciones. Para cada uno encontrado, guárdelo como un archivo de rebajas en Raw/Meeting Notes/ usando el formato AAAA-MM-DD — [meeting title].Maryland. Agregue una línea a Raw/_pending.md con el nombre del archivo y la fecha. 3. Verificar [your team communication tool] para mensajes en canales clave. Extraiga decisiones, elementos de acción y cualquier cosa que afecte a un proyecto activo. 4. Verificar [your email] para mensajes marcados o importantes. Resuma lo que necesita atención. Después de completar lo anterior, reescribe Wiki/_hot.md con: – Los hilos más activos o decisiones abiertas del escaneo de hoy – Cualquier número clave o fecha límite que surgiera – Una línea sobre cualquier tema urgente Mantenga _hot.md por debajo de 500 tokens.
Reemplace los marcadores de posición entre corchetes con sus herramientas reales. La estructura funciona ya sea que esté utilizando Linear y Slack, Notion y correo electrónico, o cualquier otra cosa.
Semanal (lunes por la mañana): recopilación
Lea _pending.md. Para cada archivo sin procesar, léalo en su totalidad, cree una página Wiki estructurada en la carpeta de dominio correcta, actualice el índice relevante, agregue vínculos de retroceso a páginas relacionadas, marque la entrada como compilada.
El trabajo semanal hace interpretación. Sintetiza el contenido bruto en conocimiento estructurado. Es más lento, más caro y vale la pena revisarlo de vez en cuando para verificar que la IA esté archivando las cosas correctamente.
Mensual (1º del mes): pelusa
Sólo control de salud. Escanee todo el Wiki en busca de páginas obsoletas (fechas o estados que el contenido más nuevo ha reemplazado), vínculos de retroceso faltantes, contradicciones entre páginas, lagunas en la cobertura y páginas huérfanas a las que no se hace referencia en ningún índice.
Escribe un archivo de informe. Publique un resumen en inglés sencillo. No arregles nada automáticamente.
El trabajo mensual nunca toca directamente el contenido de Wiki. Ese límite es lo que hace que sea seguro correr sin supervisión.
Cada cadencia tiene una tolerancia al riesgo diferente: la diaria es mecánica, la semanal hace interpretación y mensual hace diagnóstico. Mezclarlos en un solo trabajo es como se corrompen las bóvedas.
Sobre herramientas: aquí funciona cualquier sistema con programación. Un trabajo cron con una CLI habilitada para MCP, n8n o una herramienta de escritorio de IA que admita tareas programadas.
Las indicaciones anteriores son la lógica. El corredor es intercambiable.
Lo que realmente cambia
Dejas de volver a explicarte y las conversaciones cambian de carácter.
Cuando el contexto ya está cargado, deja de usar la IA para preguntas aisladas y comienza a usarla para el trabajo real.
La IA conoce tus proyectos abiertos, tus decisiones recientes, tu equipo. Preguntas “¿qué debo priorizar hoy?” y lee _hot.md además de los archivos de su proyecto y le brinda una respuesta fundamentada.
¡La portabilidad es la otra cosa!
Su contexto vive en una carpeta de su máquina, no dentro del sistema de memoria de ninguna IA. Apunte una IA diferente a la misma carpeta y leerá los mismos archivos. Cambia de herramienta cuando quieras. La bóveda viaja.
Algunos modos de falla que vale la pena conocer antes de construir:
_pending.md realiza una copia de seguridad si la ingesta diaria es demasiado amplia y la compilación semanal no puede drenarla lo suficientemente rápido. Apriete lo que saca a diario.
Wiki se desplaza si nadie lee _log.md. El linter mensual detecta esto, pero sólo si realmente lees el informe.
Todo el sistema se rompe si la automatización alguna vez toca Raw. Un trabajo que escribe a Raw “sólo esta vez” y pierdes la garantía de la fuente de la verdad. Ese límite no se dobla.
La parte tediosa de mantener una base de conocimientos no es leer ni pensar.
Es la contabilidad. Actualizar referencias cruzadas, mantener resúmenes actualizados y observar cuando nuevos datos contradicen afirmaciones antiguas. Los humanos abandonan los wikis porque la carga de mantenimiento crece más rápido que el valor.
Los LLM no se aburren, no olviden actualizar una referencia cruzada y pueden tocar 15 archivos de una sola vez.
Karpathy remonta esto al concepto Memex de Vannevar Bush de 1945, un almacén de conocimientos curado personalmente con senderos asociativos entre documentos. La visión de Bush estaba más cerca de esto que de lo que llegó a ser la red. La parte que no pudo resolver fue quién hace el mantenimiento.
La bóveda que he estado ejecutando utiliza Claude como capa de IA y una herramienta de rebajas como interfaz.
¡El patrón funciona con cualquier IA que lea archivos y cualquier programador que pueda ejecutar un aviso en un reloj! La carpeta es solo una carpeta. Los archivos son solo texto.
Esto lo configuras una vez. Después de eso, tu IA deja de empezar desde cero.
¡Gracias por leer!