PKM·Wiki

Persönliches Wissensmanagement

LLM-Wiki – Persönliche Wissensdatenbanken mit KI aufbauen

Aktualisiert 2025-07-14 · Version 1.0

LLM-Wiki – Persönliche Wissensdatenbanken mit KI aufbauen

Ein Entwurfsmuster für den Aufbau persönlicher Wissensdatenbanken, bei dem ein LLM eine persistente, verlinkte Wiki-Struktur inkrementell aufbaut und pflegt – anstatt Dokumente lediglich bei jeder Anfrage neu zu durchsuchen (RAG).


Die Kernidee

Der übliche Ansatz für LLMs und Dokumente ist RAG (Retrieval-Augmented Generation): Dateien werden hochgeladen, das Modell sucht bei jeder Frage relevante Passagen heraus und antwortet. Wissen häuft sich dabei nicht an – bei jeder Frage beginnt die Synthese von vorn.

Das LLM-Wiki-Muster ist anders: Das LLM baut und pflegt kontinuierlich ein persistentes Wiki – eine strukturierte, verlinkte Sammlung von Markdown-Dateien. Wenn eine neue Quelle hinzukommt, liest das LLM sie, extrahiert die relevanten Informationen und integriert sie in das bestehende Wiki: Seiten werden aktualisiert, Querverweise gezogen, Widersprüche markiert, Synthesen verfeinert.

Das Wiki ist ein persistentes, sich anreicherndes Artefakt. Die Querverweise sind bereits vorhanden. Widersprüche wurden bereits markiert. Die Synthese spiegelt alles Gelesene wider – und wird mit jeder neuen Quelle reicher.

Das Besondere: Die Nutzerin schreibt das Wiki selbst nie (oder kaum). Das LLM übernimmt das gesamte Schreibwerk – Zusammenfassungen, Querverweise, Ablage, Buchführung. Die Nutzerin kuratiert Quellen, stellt Fragen und denkt über die Bedeutung nach.


Architektur (drei Ebenen)

1. Rohdokumente (raw/)

Die kuratierten Quelldokumente: Artikel, Paper, Bilder, Datendateien. Sie sind unveränderlich – das LLM liest sie, aber ändert sie nie. Dies ist die Quelle der Wahrheit.

2. Das Wiki

Ein Verzeichnis LLM-generierter Markdown-Dateien: Zusammenfassungen, Entity-Seiten, Konzeptseiten, Vergleiche, ein Überblick, eine Synthese. Das LLM besitzt diese Ebene vollständig. Es erstellt Seiten, aktualisiert sie bei neuen Quellen, pflegt Querverweise und hält alles konsistent.

3. Das Schema (z. B. CLAUDE.md)

Ein Konfigurationsdokument, das dem LLM erklärt, wie das Wiki aufgebaut ist, welche Konventionen gelten und welche Abläufe bei Ingest, Abfragen und Pflege zu befolgen sind. Dieses Dokument macht das LLM zu einem disziplinierten Wiki-Pfleger statt zu einem generischen Chatbot. Nutzerin und LLM entwickeln es gemeinsam weiter.


Kernoperationen

Ingest

Eine neue Quelle wird in die Rohsammlung abgelegt und das LLM angewiesen, sie zu verarbeiten. Ablauf: Das LLM liest die Quelle, bespricht die wichtigsten Erkenntnisse, schreibt eine Zusammenfassungsseite im Wiki, aktualisiert den Index, aktualisiert relevante Entity- und Konzeptseiten und hängt einen Eintrag an das Log an. Eine einzige Quelle kann 10–15 Wiki-Seiten berühren.

Query

Fragen werden gegen das Wiki gestellt. Das LLM sucht relevante Seiten, liest sie und synthetisiert eine Antwort mit Quellenangaben. Antworten können verschiedene Formen annehmen: Markdown-Seite, Vergleichstabelle, Präsentation (Marp), Diagramm. Gute Antworten können als neue Wiki-Seiten abgelegt werden – so fließen auch Erkundungen ins Wissensarchiv ein.

Lint

Periodische Gesundheitsprüfung des Wikis: Widersprüche zwischen Seiten aufdecken, veraltete Behauptungen markieren, verwaiste Seiten (ohne eingehende Links) finden, wichtige Konzepte ohne eigene Seite identifizieren, fehlende Querverweise ergänzen, Datenlücken für eine Websuche vormerken.


Navigationshilfen: Index und Log

index.md ist inhaltsorientiert: ein Katalog aller Wiki-Seiten mit Link, Ein-Zeilen-Beschreibung und optionalen Metadaten, nach Kategorien geordnet. Das LLM liest ihn vor jeder Abfrage zuerst, um relevante Seiten zu finden. Funktioniert überraschend gut bis ~100 Quellen / mehrere Hundert Seiten, ohne Embedding-Infrastruktur.

log.md ist chronologisch: ein append-only-Protokoll aller Vorgänge (Ingests, Abfragen, Lint-Durchläufe). Mit konsistentem Präfix (z. B. ## [2026-04-02] ingest | Titel) wird das Log mit einfachen Unix-Tools durchsuchbar: grep "^## \[" log.md | tail -5 liefert die letzten 5 Einträge.


Anwendungsbeispiele

Kontext Einsatz
Persönlich Ziele, Gesundheit, Psychologie, Selbstverbesserung – Tagebucheinträge, Artikel, Podcast-Notizen strukturieren
Forschung Über Wochen/Monate ein Thema vertiefen – Paper, Artikel, Berichte inkrementell zu einer Übersicht verdichten
Buch lesen Jedes Kapitel ablegen, Seiten für Figuren, Themen, Handlungsstränge anlegen – am Ende ein reiches Begleit-Wiki
Team/Unternehmen Internes Wiki aus Slack-Threads, Meeting-Transkripten, Projektdokumenten – das LLM macht die Pflege, die niemand machen will
Sonstiges Wettbewerbsanalysen, Due Diligence, Reiseplanung, Kursnotizen, Hobby-Vertiefungen

Optionale Werkzeuge


Warum das funktioniert

Der mühsame Teil einer Wissensdatenbank ist nicht das Lesen oder Denken – es ist die Buchführung. Querverweise aktualisieren, Zusammenfassungen aktuell halten, Widersprüche notieren, Konsistenz über Dutzende Seiten wahren. Menschen geben Wikis auf, weil der Pflegeaufwand schneller wächst als der Nutzen.

LLMs werden nicht müde, vergessen nicht, einen Querverweis zu aktualisieren, und können in einem Durchgang 15 Dateien anfassen. Das Wiki bleibt gepflegt, weil die Pflegekosten nahezu null sind.

Der Gedanke knüpft an Vannevar Bushs Memex (1945) an – ein persönlicher, kuratierter Wissensspeicher mit assoziativen Pfaden zwischen Dokumenten. Das, was Bush nicht lösen konnte: Wer macht die Pflege? Das LLM übernimmt das.


Quellen

Erstellt aus raw/llm-wiki.md

Seite löschen