PKM·Wiki

Persönliches Wissensmanagement

Karpathys LLM-Wiki-Muster – Analyse, Community-Reaktion und Grenzen

Aktualisiert 2026-04-20 · Version 1.0

Karpathys LLM-Wiki-Muster – Analyse, Community-Reaktion und Grenzen

Andrej Karpathy veröffentlichte 2026 ein GitHub-Gist, das das sogenannte „LLM-Wiki"-Muster beschreibt: ein Ansatz, bei dem ein LLM-Agent eine persistente, verlinkte Markdown-Wissensdatenbank aufbaut und pflegt, anstatt Dokumente bei jeder Anfrage neu zu durchsuchen. Das Gist erzielte binnen 48 Stunden über 5.000 Stars — für ein Dokument ohne eine einzige Codezeile. Dieser Artikel analysiert den Kontext, die Argumentation und die Reaktionen der Community.

Für eine technische Beschreibung des Musters selbst siehe LLM-Wiki – Persönliche Wissensdatenbanken mit KI aufbauen.


Was RAG leistet — und warum viele frustriert sind

RAG (Retrieval-Augmented Generation) ist der Standardansatz, wenn LLMs mit externen Dokumenten arbeiten: Dokumente werden in Fragmente aufgeteilt, als Vektoren gespeichert, und bei jeder Anfrage werden die „ähnlichsten" Fragmente in den Kontext geladen.

Das Problem ist strukturell:

Die RAG-Community hat mit Overlapping Windows, Hierarchical Retrieval, Re-Ranking-Pipelines und weiteren Workarounds reagiert — und dabei ein komplexes Flickwerk für ein fundamentales Architekturproblem geschaffen.


Das LLM-Wiki-Muster als Alternative

Karpathys Ansatz dreht die Verarbeitungsreihenfolge um: Die Kompilierung geschieht beim Ingest, nicht zur Abfragezeit.

Die Metapher, die er wählt, ist prägnant:

Obsidian ist die IDE. Das LLM ist der Programmierer. Das Wiki ist der Codebase.

Das Muster läuft auf drei Kernoperationen:

Operation Was passiert
Ingest Neue Quelle einlesen, Zusammenfassung schreiben, Index aktualisieren, alle relevanten Konzept- und Entity-Seiten revidieren und verlinken
Query Wiki-Index lesen, relevante Seiten laden, Antwort aus strukturiertem, vor-kompiliertem Wissen synthetisieren — wertvolle Antworten werden selbst zu neuen Wiki-Seiten
Lint Periodische Selbstprüfung: Widersprüche, veraltete Behauptungen, verwaiste Seiten, fehlende Konzepte aufspüren

Der entscheidende Unterschied zu RAG:

RAG ist eine Suchmaschine. LLM-Wiki ist eine Enzyklopädie.

Google hilft dir, Seiten zu finden, die deine Antwort enthalten könnten. Wikipedia gibt dir einen strukturierten Artikel, der Informationen aus Hunderten Quellen synthetisiert — mit Querverweisen, Zitaten und Konsistenzpflege.


Der historische Bezug: Vannevar Bushs Memex

Karpathy verweist explizit auf Vannevar Bushs Essay „As We May Think" (1945). Bush, damals Leiter des U.S. Office of Scientific Research and Development, beschrieb darin ein hypothetisches Gerät namens Memex: einen persönlichen, kuratierten Wissensspeicher mit assoziativen Pfaden zwischen Dokumenten — im Wesentlichen eine Vorwegnahme des Webs, des Hypertexts und des Personal Knowledge Management, 50 Jahre vor ihrer Realisierung.

Das Problem, das Bush nicht lösen konnte: Wer pflegt die Querverweise? Wer liest jedes neue Paper und verlinkt es mit jedem relevanten bestehenden Dokument? Wer markiert Widersprüche? Menschen — und Menschen geben Wikis auf. Immer wieder.

LLMs werden nicht müde. Sie vergessen nicht, den Index zu aktualisieren. Sie überspringen das Querverweisen nicht, weil es Freitagabend ist.

Karpathy löste nicht nur ein KI-Architekturproblem. Er löste Bushs 80 Jahre altes Pflegeproblem.


Die Community-Reaktion: Drei Lager

Die Reaktionen auf das Gist zeigen ein charakteristisches Muster für polarisierende KI-Diskussionen:

Die Enthusiasten

Sie sehen das LLM-Wiki als Zukunft der Wissensarbeit. Das persistente, akkumulierende Wiki löst genau die Wand, gegen die sie mit klassischem RAG gerannt sind: gleiche Fragen, inkonsistente Antworten, kein Aufbau auf früheren Erkenntnissen. Innerhalb weniger Tage entstanden erste Implementierungen: llmwiki.app, Obsidian-Integrationen, ein direkter Anschluss an Claude via MCP.

Die Skeptiker

Ihre schärfste Kritik: Karpathy hat nicht RAG getötet — er hat nur den Cache-Layer umbenannt. Wer LLM-Wiki als neue Orthodoxie ausrollt, wird Deduplizierung und Cache-Invalidierung auf die harte Tour kennenlernen. Außerdem: Claude Code nutzt bereits agentische Dateisuche, und Modelle sind heute gut genug im Navigieren von Dateistrukturen, dass Chunking in vielen Fällen ohnehin überholt ist.

Ein weiterer Einwand: Jedes Mal, wenn man Claude Code startet, hat das Modell nur sein Trainingswissen — das Lesen von Skills und Configs macht es keinen Deut klüger.

Gegenargument: Das Wiki macht das Modell nicht schlauer. Es macht Wissen zugänglich und strukturiert, sodass das Modell effektiv darüber schlussfolgern kann. Es ist ein fundamentaler Unterschied, ob man 50 zufällige Dokument-Chunks in den Kontext lädt, oder dem Modell eine gut organisierte Enzyklopädie gibt, die es selbst kompiliert hat.

Die Pragmatiker

Die nüchternste Sichtweise: RAG ist gut für das, wofür es entwickelt wurde. Die fehlende Komponente war compounding memory. Kuratierte Notizen plus Zitate plus periodische Aktualisierung schlägt das ständige Neu-Abrufen bei jeder Anfrage. RAG und LLM-Wiki sind keine Feinde — sie sind unterschiedliche Werkzeuge für unterschiedliche Maßstäbe und Anwendungsfälle.


Die Skalierungsfrage: Persönliches Werkzeug, kein Enterprise-System

Karpathy gibt selbst an, das Muster bei etwa 100 Artikeln und rund 400.000 Wörtern einzusetzen. Auf dieser Skala reichen Zusammenfassungen und Index-Navigation problemlos aus — moderne Kontextfenster sind groß genug, um Index plus mehrere vollständige Artikel gleichzeitig zu halten.

Bei 10⁴, 10⁵ oder 10⁶ Dateien entstehen strukturelle Probleme:

Karpathy selbst stellt das explizit klar: Das Dokument beschreibt absichtlich ein abstraktes Muster, keine Implementierungsvorgabe. Es ist ein persönliches Wissenswerkzeug, nicht eine Enterprise-Plattform — noch nicht.


Die stärksten Anwendungsfälle

Kontext Warum das Muster funktioniert
Persönliches Wissensmanagement Skala inherent überschaubar; Akkumulation über Monate wertvoll
Forschungssynthese Papers über Wochen akkumulieren; Widersprüche und Entwicklungen automatisch verfolgen
Buch lesen Charaktere, Themen, Handlungsfäden cross-referenziert; dichtes Begleit-Wiki
Kleines Team / Abteilung Meeting-Transkripte, Slack-Threads, Projektdokumente — KI übernimmt Pflege, die niemand machen will

Das Fine-Tuning-Endspiel

Ein wenig diskutierter Ausblick aus dem Gist: Das Wiki kann als Quelle für synthetische Trainingsdaten dienen, um Modelle zu fine-tunen.

Das bedeutet: Monate des Wissensaufbaus → strukturiertes Wiki → generierte Trainingsbeispiele → fine-getuntes Modell.

Das Wissen wandert vom Kontextfenster in die Modellgewichte. Das persönliche Wiki wird zum persönlichen Modell.

Das Wiki wäre die Zwischendarstellung — ein kompilierter Wissensspeicher auf dem Weg zu einem spezialisierten Modell.


Einordnung: Was das für die RAG-Industrie bedeutet

RAG ist nicht tot. Für Millionen von Dokumenten, Echtzeit-Daten, Multi-Tenant-Enterprise-Umgebungen mit Sicherheitsanforderungen bleibt RAG die richtige Architektur.

Aber die Kritik trifft: Für persönliche Wissensdatenbanken, Forschungsprojekte, kleine Team-Wikis und domänenspezifisches Wissensmanagement im Bereich von Hunderten bis wenigen Tausend Dokumenten ist das LLM-Wiki-Muster nachweislich überlegen.

Das sollte RAG-Anbieter aufhorchen lassen — nicht weil LLM-Wiki ihre Enterprise-Produkte heute ersetzt, sondern weil das Muster eine unbequeme Wahrheit offenlegt:

Die meisten RAG-Implementierungen sind über-engineert für das, was Nutzer wirklich brauchen, und unter-engineert für das, was Nutzer wirklich wollen.

Nutzer wollen keine Retrieval-Ergebnisse. Sie wollen Wissen. Das ist ein Unterschied.


Quellen

Erstellt aus raw/Andrej Karpathy Killed RAG. Or Did He The LLM Wiki Pattern by Mandar Karhade, MD. PhD. Apr, 2026 Tow.md

Seite löschen