🧠가이드
AI가 관리하는 두 번째 뇌: Claude + Obsidian으로 지식 베이스 구축하기
RAG 방식을 넘어 AI가 직접 위키를 작성하고 관리하는 LLM Wiki 개념으로 지식이 복리로 쌓이는 시스템 만들기
↗ 원본 링크#Claude#Obsidian#지식관리#LLM Wiki#RAG
기존 AI 지식 관리의 한계
많은 사람들이 AI로 지식 관리를 시도할 때 RAG(Retrieval-Augmented Generation) 방식을 사용합니다.
▸문서를 업로드하고 AI가 알아서 찾아주길 기대
▸질문할 때마다 파일을 다시 넘기고 답을 찾음
▸
문제점: 매번 처음부터 다시 찾아서 지식이 누적되지 않음
▸어제의 통찰이 오늘로 이어지지 않아 대부분의 프로젝트가 실패
LLM Wiki: 새로운 접근법
Andrej Karpathy가 제안한 LLM Wiki 개념은 근본적으로 다릅니다.
핵심 차이점
RAG 방식: 투자할 때마다 원금만 돌려받는 구조
위키 방식: 지식이 복리로 쌓이는 구조
▸AI가 소스를 읽을 때 직접 위키를 작성
▸핵심을 뽑아 관련 페이지를 업데이트
▸모순이 생기면 표시하고 새 정보를 기존 구조에 연결
▸한 번 쓰면 다음엔 그걸 읽음 (재처리 불필요)
왜 AI가 관리를 맡아야 하나?
사람들이 지식 베이스를 포기하는 이유는 관리 비용 때문입니다.
사람이 하기 힘든 작업들
▸크로스레퍼런스 업데이트
▸요약 수정
▸구조 재편
▸새 정보로 기존 주장 검토
AI가 맡으면 달라지는 점
▸지루함을 모르고 크로스레퍼런스 업데이트를 잊지 않음
▸한 번에 여러 파일 수정이 부담 없음
▸유지 관리 비용이 거의 0에 수렴
▸
인간의 역할: 소스 선택, 좋은 질문, 의미 해석에 집중
3층 구조 시스템
1. 원본 소스 (Source Layer)
▸아티클, 논문, 클리핑 등 원본 자료
▸AI는 읽기만 하고 수정하지 않음
▸진실의 원천 역할
2. 위키 (Wiki Layer)
▸AI가 직접 작성하고 관리하는 레이어
▸엔티티 페이지, 개념 요약, 비교 분석, 전체 개요
▸AI가 소스에서 지식을 뽑아 여기에 엮어 넣음
▸좋은 질문과 답변도 파일로 저장되어 사라지지 않음
3. 스키마 (Schema Layer)
▸AI의 위키 관리 규칙과 컨벤션
▸새 소스 처리 순서
▸질문 응답 방식
▸Obsidian에서는 `CLAUDE.md`에 작성
실제 작동 방식
소스 추가 시
1. 주요 아이디어 추출
2. 관련 기존 페이지 업데이트
3. 새로운 연결 발견
4. 모순 발견 시 표시
5. 인덱스 갱신
6. 변경 사항 로그 기록→ 소스 하나가 위키 전체에 파문을 만듦
질문 시
1. 인덱스에서 관련 페이지 검색
2. 해당 페이지들을 읽고 종합
3. 이미 쌓인 맥락에서 답변
4. 답변 자체가 새 위키 페이지로 저장 가능주기적 관리
▸일주일에 한 번 lint 실행
▸AI가 위키를 자체 점검
▸모순, 동떨어진 페이지, 오래된 주장 확인
Obsidian을 사용하는 이유
▸마크다운 파일 기반 (특별한 플랫폼 불필요)
▸구독이나 종속성 없음
▸그래프 뷰로 연결 시각화
▸Git으로 버전 관리 가능
▸Claude Code가 직접 파일 읽기/편집 가능
▸
AI가 IDE를 쓰듯이 Obsidian을 사용
핵심 인사이트
> "AI에게 지식을 주는 게 아니라, AI가 지식을 쌓게 해야 한다"
지식 관리가 실패하는 이유는 의지력 부족이 아니라 유지 관리 비용이 너무 높기 때문입니다.
AI에게 관리 역할을 맡기면:
▸소스가 쌓일수록 위키는 더 깊어지고 연결됨
▸질문이 쌓일수록 더 쓸모 있어짐
▸지식이 복리로 성장하는 진정한 '두 번째 뇌' 구현
시작하기
구체적인 프롬프트와 설정 방법은 원문 아티클을 참고하세요. AI가 위키를 직접 관리하는 시스템으로 당신만의 두 번째 뇌를 만들어보세요.