Andrej Karpathy propone “LLM Wiki”, una nueva forma de usar la IA para construir una base de conocimiento viva

Andrej Karpathy, una de las figuras más conocidas del ecosistema de la Inteligencia Artificial, ha vuelto a agitar la conversación tecnológica con una idea que va más allá del uso clásico de los grandes modelos de lenguaje como simples asistentes de consulta. Tras el fuerte eco que tuvo en redes su planteamiento sobre bases de conocimiento construidas con IA, Karpathy ha publicado en GitHub un gist titulado “LLM Wiki”, un documento pensado para copiar y pegar directamente en un agente como Claude Code, Codex u otras herramientas similares para que sea ese agente quien monte el sistema dentro del proyecto del usuario.

La propuesta parte de una crítica implícita al modelo dominante de los sistemas RAG tradicionales. Según explica Karpathy en el propio documento, la mayoría de experiencias actuales con documentos y LLM funcionan como un proceso repetitivo: el usuario sube archivos, el sistema recupera fragmentos relevantes en tiempo real y genera una respuesta, pero el conocimiento no se acumula realmente. Cada nueva pregunta obliga al modelo a redescubrir casi todo desde cero. Frente a eso, “LLM Wiki” propone algo distinto: que el modelo vaya construyendo y manteniendo una wiki persistente en Markdown, interconectada, actualizada y cada vez más rica con cada nueva fuente y cada nueva consulta.

La idea central es simple, pero poderosa. En lugar de dejar los documentos en bruto como única fuente operativa, el sistema crea una capa intermedia: una wiki de archivos Markdown generados por el propio LLM. Cuando el usuario añade un nuevo paper, un artículo, un repositorio o cualquier otra fuente, el agente no se limita a indexarlo para futuras preguntas. Lo lee, extrae lo importante, crea o actualiza páginas temáticas, revisa páginas de entidades o conceptos, detecta contradicciones con contenido previo y fortalece una síntesis general que no deja de crecer. En ese modelo, la wiki se convierte en un artefacto acumulativo y permanente, no en una respuesta efímera que desaparece en el historial del chat.

Karpathy plantea esta estructura en tres capas. La primera son las fuentes originales, que permanecen inmutables y actúan como verdad de referencia. La segunda es la wiki, compuesta por archivos Markdown que el modelo crea y mantiene. La tercera es el schema, un documento de reglas y convenciones —por ejemplo, un CLAUDE.md o AGENTS.md— que enseña al agente cómo debe organizar la wiki, cómo ingerir nuevas fuentes, cómo responder consultas y cómo cuidar la coherencia interna del sistema. Según el gist, ese archivo de esquema es clave para convertir al agente en un mantenedor disciplinado de conocimiento y no solo en un chatbot genérico.

En el terreno práctico, el documento describe tres operaciones principales. La primera es ingest, es decir, la ingesta de nuevas fuentes. La segunda es query, donde el usuario pregunta sobre la wiki ya construida y el modelo devuelve una respuesta apoyada en las páginas existentes. La tercera es lint, una especie de revisión de salud de la base de conocimiento para detectar páginas huérfanas, contradicciones, conceptos sin desarrollar o afirmaciones desactualizadas. Karpathy sugiere, además, que muchas respuestas útiles a consultas concretas deberían guardarse otra vez dentro de la wiki como nuevas páginas, de forma que el conocimiento siga creciendo también a partir del trabajo analítico posterior.

Uno de los elementos más atractivos de la propuesta es que no exige una infraestructura excesivamente compleja desde el primer momento. El propio gist sugiere que, a una escala moderada, una wiki puede funcionar simplemente con un index.md como catálogo de contenidos y un log.md como registro cronológico de ingestas, consultas y revisiones. Solo cuando el sistema crece más entra en juego la posibilidad de añadir herramientas CLI de búsqueda más sofisticadas, como qmd, un motor local para archivos Markdown que Karpathy menciona como opción útil para búsquedas híbridas y re-ranking sobre el contenido de la wiki.

También resulta llamativo el papel que da a Obsidian. En su explicación, Karpathy cuenta que imagina una dinámica en la que el agente trabaja en un lado y Obsidian está abierto en otro, funcionando casi como si fuera el IDE de la base de conocimiento. El usuario explora el grafo, navega entre enlaces, revisa páginas y ve en tiempo real cómo el LLM actualiza esa estructura de conocimiento. La metáfora que utiliza es bastante clara: Obsidian sería el IDE, el LLM sería el programador y la wiki sería el código fuente.

El alcance de la idea es mucho más amplio que el mundo académico. En el texto aparecen usos personales, como objetivos, salud, psicología o autoobservación; usos de investigación a largo plazo; seguimiento de libros por capítulos; wikis internas de empresa alimentadas por reuniones, hilos de Slack y documentos; e incluso escenarios como due diligence, análisis competitivo, planificación de viajes o aprendizaje autodidacta. La tesis de fondo es que el gran valor no está solo en que la IA responda, sino en que mantenga el trabajo pesado de organización, resumen, referencias cruzadas y actualización que los humanos suelen abandonar por puro coste de mantenimiento.

El propio Karpathy resumió la jugada en X al compartir el gist con un mensaje directo: “So here’s the idea in a gist format”, dejando claro que no estaba publicando una aplicación cerrada, sino un patrón de trabajo que cada usuario puede adaptar con su agente favorito. Ese matiz es importante. “LLM Wiki” no es un producto, ni un SaaS, ni una extensión lista para usar. Es una idea operativa empaquetada como archivo para que otros la conviertan en sistema dentro de sus propios proyectos. Y precisamente por eso ha llamado tanto la atención.

Preguntas frecuentes

¿Qué es exactamente “LLM Wiki”?
Es un gist publicado por Andrej Karpathy que describe un patrón para construir bases de conocimiento personales o de equipo usando LLMs, con una wiki persistente en Markdown que el propio agente mantiene y actualiza.

¿En qué se diferencia de un sistema RAG tradicional?
La diferencia principal es que en RAG el modelo vuelve a descubrir la información a partir de documentos en bruto cada vez que responde, mientras que en “LLM Wiki” el conocimiento se compila y se mantiene en una wiki persistente que crece con el tiempo.

¿Hace falta una aplicación concreta para usar esta idea?
No. El documento está diseñado para copiarse y pegarse en un agente como Claude Code, Codex u otros, de modo que sea el propio agente quien construya la implementación específica.

¿Qué herramientas menciona Karpathy como complemento?
El gist menciona, entre otras, Obsidian como entorno de navegación y edición de la wiki, y qmd como posible motor local de búsqueda para Markdown a medida que el sistema crece.

Scroll al inicio