핵심 아이디어
RAG와의 차이점:
- RAG: 쿼리 시마다 원본 문서에서 지식 재발견 — 누적 없음
- LLM Wiki: LLM이 영속적 wiki를 점진적으로 빌드·유지 — 지식이 컴파일되어 쌓임
새 소스가 추가될 때 LLM은 단순 인덱싱이 아니라 위키를 실제로 업데이트한다:
- 엔티티 페이지 수정
- 주제 요약 갱신
- 기존 주장과 충돌하는 정보 표시
- 교차 참조 강화
3계층 아키텍처
| 계층 | 설명 | 소유자 |
|---|---|---|
| Raw sources | 원본 문서 (불변 — LLM이 읽기만, 수정 금지) | 사람 |
| Wiki | LLM이 생성·유지하는 마크다운 파일 디렉토리 | LLM |
| Schema | wiki 구조·규칙·워크플로우를 LLM에게 알려주는 설정 파일 (CLAUDE.md / AGENTS.md) | 사람+LLM 공동 발전 |
주요 Operations
Ingest
- 원본 소스를 raw 컬렉션에 추가
- LLM이 소스 읽기 → 주요 내용 논의
- wiki에 요약 페이지 작성
- 관련 엔티티·개념 페이지 10~15개 업데이트
- 인덱스 및 로그에 항목 추가
Query
- LLM이 관련 페이지를 검색·읽고 인용과 함께 답변 합성
- 핵심: 좋은 답변은 wiki에 새 페이지로 저장 가능 — 탐색 결과가 누적됨
Lint
- 페이지 간 모순 탐지
- 신규 소스에 의해 구식이 된 주장 표시
- 인바운드 링크 없는 고아 페이지 탐지
- 페이지 없는 중요 개념 파악
- 데이터 공백 식별 및 웹 검색으로 보충 제안
인덱싱 및 로깅
| 파일 | 목적 | 업데이트 시점 |
|---|---|---|
index.md | 컨텐츠 지향 카탈로그 — 각 페이지 링크·요약·메타데이터 | 매 ingest마다 |
log.md | 시간순 추가-전용 기록 — ingest, query, lint 이력 | 매 작업마다 |
log.md 팁: 일관된 접두사 사용 시 unix 도구로 파싱 가능:
grep "^## \[" log.md | tail -5 # 최근 5개 항목
선택적 CLI 도구
- qmd — 마크다운 파일용 로컬 검색 엔진 (BM25/vector 하이브리드, LLM 리랭킹). CLI + MCP 서버 모두 제공.
- wiki 규모가 작을 때는 index.md로 충분 — 100개+ 소스, 수백 페이지부터 검색 도구 고려.
실용 팁
- Obsidian Web Clipper — 웹 아티클을 마크다운으로 변환하는 브라우저 확장
- 이미지 로컬 다운로드 — Obsidian Settings → Files and links → Attachment folder path를 고정 디렉토리로 설정
- Obsidian graph view — wiki 형태 시각화, 허브/고아 페이지 파악
- Marp — 마크다운 기반 슬라이드 덱 형식 (Obsidian 플러그인 있음)
- Dataview — YAML frontmatter를 쿼리하는 Obsidian 플러그인 (동적 테이블 생성)
- wiki는 git 저장소 — 버전 히스토리, 브랜치, 협업 무료로 제공
왜 작동하는가
지식 베이스 유지의 지루한 부분은 읽기·생각이 아니라 북키핑:
- 교차 참조 업데이트
- 요약 최신화
- 수십 페이지 간 일관성 유지
LLM은 지루함을 느끼지 않고, 교차 참조를 잊지 않으며, 한 번에 15개 파일을 처리 가능. 결과: 유지비용이 거의 0에 수렴 → wiki가 계속 살아있음.
인간의 역할: 소스 큐레이션, 분석 방향 설정, 좋은 질문, 의미 파악. LLM의 역할: 나머지 모든 것.
적용 사례
- 개인 성장 추적 (일기, 아티클, 팟캐스트 노트)
- 연구 (논문/리포트 → 논문 wiki)
- 독서 (챕터별 wiki — 등장인물, 테마, 플롯)
- 팀 내부 위키 (Slack 스레드, 회의록, 프로젝트 문서)
- 경쟁 분석, 실사, 여행 계획, 강의 노트
관련
- getting-started — 이 위키의 구체적 구현
- graphify — LLM wiki 패턴을 지식 그래프로 확장하는 도구