- Karpathy LLM Wiki pattern viral 16 triệu lượt xem tháng 4/2026: dùng AI không phải để search mà để tự compile và maintain một wiki riêng.
- Chỉ cần 3 folder và một file CLAUDE.md, AI làm hết phần tổ chức.
- Hiệu quả hơn RAG 70 lần ở personal scale.
- Hệ thống càng dùng càng thông minh - ngày 1 là note app, ngày 90 là tài sản công ty.
TL;DR
Tháng 4/2026, Andrej Karpathy (founding member OpenAI, cựu giám đốc AI Tesla) đăng một bài trên X và gần như thay đổi cách mọi người nghĩ về note-taking. Bài viral 16 triệu lượt xem. GitHub Gist follow-up đạt 5,000+ stars trong vài ngày.
Insight cốt lõi: đừng dùng AI để search tài liệu của bạn - hãy để AI xây và duy trì cả thư viện đó. Karpathy tự mình chứng minh bằng một personal wiki gồm 100 bài, 400,000 từ - mà ông không viết tay một dòng nào.
Tại sao knowledge base của bạn lúc nào cũng chết
Bạn đã từng làm điều này chưa: tạo một Notion database hoành tráng, tag đủ kiểu, populate vài chục trang - rồi 3 tháng sau không ai động vào nữa?
Vấn đề không phải công cụ. Vấn đề là chi phí bảo trì. Mỗi lần thêm một nguồn mới, bạn phải: đọc nó, viết tóm tắt, tag, liên kết với các trang liên quan, cập nhật index, check contradiction với trang cũ. Không ai làm điều này nhất quán. Hầu hết second brain thực ra là nghĩa địa các note chưa đọc.
Insight của Karpathy: đây chính xác là việc LLM làm tốt nhất. Model không mệt khi tag. Không quên add backlink. Có thể đọc 50 bài và tìm ra sợi chỉ kết nối tất cả chỉ trong một lần chạy.
Kiến trúc 3 lớp đằng sau
Toàn bộ hệ thống chỉ cần 3 thứ:
raw/ - staging area bất biến. Bạn drop bài viết, transcript, note, PDF vào đây. AI chỉ đọc, không sửa. Đây là nguồn sự thật duy nhất.
wiki/ - AI quản lý toàn bộ. Bao gồm concept pages, entity profiles, source summaries - tất cả liên kết với nhau bằng
[[wikilinks]]. Có index.md làm mục lục để AI điều hướng nhanh.CLAUDE.md - file schema quan trọng nhất. Định nghĩa cấu trúc trang, naming convention, cross-reference rules. Biến một LLM generic thành một knowledge worker có kỷ luật.
Khi có source mới, AI đọc nó, viết summary, cập nhật 10-15 trang wiki liên quan, tạo concept pages mới nếu cần, update index - tất cả trong một lần. Khi bạn query, AI đọc index.md, chọn 3-5 bài liên quan nhất, đọc đầy đủ rồi tổng hợp câu trả lời với citation.
Bắt đầu trong 45 phút
Đây là flow từ user input - đơn giản đến mức đáng ngạc nhiên:
5 phút - Setup: Tạo 3 folder
raw/,wiki/,outputs/. Drop một fileCLAUDE.mdvới schema vào root. Xong.10 phút - Dump: Copy-paste bài viết, note, screenshot, meeting transcript vào
raw/. Không cần đặt tên đẹp. Không cần tổ chức. Cứ drop vào.30 phút - Để AI xây: Trỏ Claude Code vào folder. Prompt: "Read everything in raw/. Compile a wiki following CLAUDE.md rules. Create INDEX.md first." Rời đi. Quay lại thấy bài đã được tổ chức, topic đã được link với nhau, index đã searchable.
Ongoing - Vòng lặp compound: Hỏi câu hỏi. Lưu câu trả lời về
raw/. Mỗi query làm câu trả lời tiếp theo tốt hơn.Monthly - Health check: Yêu cầu AI flag contradiction, tìm topic chưa được giải thích, đề xuất 3 bài mới để lấp gaps.
Test nhanh hoàn toàn miễn phí: Obsidian (free, local-first) + ChatGPT free tier hoặc Ollama chạy local (Llama 3/Mistral, không cần internet, không có API cost). Muốn tự động hóa thì dùng Claude Code với Anthropic API.
Tại sao tốt hơn RAG và các tool hiện tại
Approach | Cơ chế | Vấn đề |
|---|---|---|
Notion / Google Drive search | Tìm file name + text | Không cross-reference, kiến thức bị silo |
RAG (NotebookLM, ChatGPT upload) | Search raw docs mỗi query | Re-derive từ đầu mỗi lần, không compound |
Traditional wiki (Confluence) | Human viết & maintain | Stale sau vài tuần vì không ai cập nhật |
LLM Wiki (Karpathy pattern) | AI compile một lần, update incremental | Cần setup schema; tốt nhất cho personal scale |
Claude 3.5 có context window 200,000 token (~150,000 từ - tương đương 2 quyển tiểu thuyết). Với personal wiki, model load toàn bộ knowledge base vào một lần inference - không cần embedding, vector database, chunking. Theo benchmark, hiệu quả hơn RAG 70 lần ở personal scale vì chỉ cần 1 API call thay vì 2+ (embedding + generation).
Ai nên thử ngay
Sales & GTM: Rep mới tra competitor trước call - đọc 2 phút ra full picture thay vì 6 tuần học mò. Competitive intelligence tự update từ call transcripts & G2 reviews.
Consulting: "Cái gì đã work trong 8 dự án supply chain gần nhất?" - AI trả lời ngay thay vì hỏi senior người.
Engineering: "Tại sao chọn Postgres over DynamoDB?" - pull original decision record với context đầy đủ.
Researcher / Writer: Personal research database từ papers, newsletters, sách - queryable như search engine nhưng biết context của bạn.
Solo founder: 50+ client engagements worth of pattern recognition, từ trong đầu ra thành searchable asset.
Giới hạn cần biết
Pattern này không phải cho enterprise scale. Giới hạn thực tế: ~150,000 từ trong context window. Index-first navigation bắt đầu strain sau 100-200 bài - cần thêm semantic search fallback. Với knowledge base hàng triệu từ, RAG vẫn là lựa chọn đúng.
Về privacy: khi dùng Claude Code qua Anthropic API, toàn bộ nội dung wiki được gửi lên API. Không ingest credentials, secrets, hoặc thông tin nhạy cảm. Muốn hoàn toàn offline: Obsidian + Ollama local, không có gì rời khỏi máy bạn.
Tiếp theo trong roadmap
Community đang xây thêm 3 tính năng:
Staleness detection: Date-aware lint để flag bài từ 2021 vẫn đang được treat như "state of the art"
Proactive discovery: AI tự detect gaps và đề xuất cái gì nên ingest tiếp
Finetuning (endgame): Khi wiki đủ lớn, dùng làm training data để bake domain knowledge vào model weights - không cần load context mỗi query nữa
Ngày 1 nó là note app. Ngày 90 nó là tài sản không ai khác trong công ty có.
Via: HackerNoon, MindStudio, Starmorph, StartupGTM.

