- MCP plugin open-source của Zilliz biến cả repo thành vector DB có thể truy vấn.
- Hybrid BM25 + dense vector search, AST chunking, Merkle incremental index — giảm 40% token mà chất lượng giữ nguyên.
- Hoạt động với Claude Code, Cursor, Windsurf, VS Code và 10+ agent khác.
TL;DR
Claude Context là MCP plugin open-source (MIT) do Zilliz phát triển, biến toàn bộ codebase thành một vector database có thể truy vấn ngữ nghĩa. Thay vì nhồi cả thư mục vào prompt mỗi lần hỏi, agent retrieve đúng đoạn code liên quan bằng hybrid BM25 + dense vector search. Kết quả: giảm ~40% token so với grep-based retrieval, ít đoán mò, response nhanh hơn. Hoạt động với Claude Code, Cursor, Windsurf, VS Code, Cline, Gemini CLI, OpenAI Codex CLI và hơn 10 client khác. Đã 5.6k+ stars trên GitHub, free tier xài được.
What's new
Vấn đề ai làm với AI coding agent trên repo lớn đều biết: agent hỏi gì cũng đoán, hoặc ngốn vài chục nghìn token chỉ để load file rồi vẫn miss đúng chỗ. Claude Context giải quyết theo hướng retrieval thay vì brute-force load:
- Index codebase một lần vào vector DB (Milvus self-host hoặc Zilliz Cloud managed).
- Mỗi câu hỏi của agent → hybrid search trả về chỉ những chunk semantic relevant.
- Agent ăn context vừa đủ — đủ đúng, đủ ít, đủ nhanh.
Plugin expose 4 MCP tool đơn giản: index, search, clear, status. Cài 1 lệnh là chạy.
Why it matters
Token economy của AI coding bị broken cho repo > 100k LOC. Cursor reading file mode hay Claude Code @-mention nhanh chóng đụng trần context window. Mọi giải pháp tạm — split prompt, manual file selection, RAG ad-hoc — đều fragile.
Claude Context đem cách tiếp cận chuẩn của information retrieval production-grade (Milvus là vector DB stack tier-1) vào hẳn workflow của coding agent qua MCP. Không phải hack, không phải prompt engineering — mà là tầng infra retrieval thiếu lâu nay.
Technical facts
| Property | Value |
|---|---|
| License | MIT (open-source) |
| GitHub | 5.6k+ stars, 501 forks, 174+ commits |
| Search type | Hybrid: BM25 keyword + dense vector |
| Chunking | AST-based (Tree-sitter), theo function/class/module |
| Re-index | Merkle tree diff, chỉ file thay đổi |
| Token reduction | ~40% so với grep-based retrieval |
| Languages | 14+: TS, JS, Python, Java, C++, C#, Go, Rust, PHP, Ruby, Swift, Kotlin, Scala, Markdown |
| Embedding providers | OpenAI, VoyageAI (voyage-code-3), Ollama (local), Google Gemini |
| Vector DB | Milvus (self-host) hoặc Zilliz Cloud |
| Runtime | Node.js ≥20 và <24 |
Ba quyết định kỹ thuật đáng chú ý:
- AST chunking với Tree-sitter: thay vì cắt theo dòng (chia lìa hàm, mất ngữ cảnh), nó cắt theo ranh giới syntactic. Mỗi chunk là một unit semantic trọn vẹn.
- Merkle incremental indexing: file edit xong, hash thay đổi, chỉ file đó re-index. Repo 1M LOC cũng không phải build lại từ đầu.
- Hybrid retrieval: dense vector match được intent ("auth flow", "webhook handler"), BM25 match được tên hàm/symbol cụ thể (
parseInvoice). Hai layer bù nhau.
Comparison
| Tiêu chí | Grep / file load truyền thống | Claude Context |
|---|---|---|
| Cách lấy context | Đọc cả file/folder vào prompt | Retrieve chunks liên quan từ vector DB |
| Token cost trên repo lớn | Cao, load thừa nhiều | Giảm ~40% |
| Code structure awareness | Không (chunk theo dòng) | Có (AST theo function/class) |
| Re-index khi sửa | Rebuild full | Merkle diff, chỉ file thay đổi |
| Khớp ngữ nghĩa tự nhiên | Phải gõ đúng keyword | Vector hiểu intent |
So với các alternative cùng tier (CodeGrok MCP, MCP Vector Search, GrepAI), Claude Context nổi trội ở 3 điểm: hybrid dual-layer hoàn chỉnh, AST + Merkle indexing đầy đủ, và ecosystem MCP client rộng nhất với 15+ agent.
Use cases
- Onboard agent vào monorepo: index một lần, agent trả lời "controller xử lý webhook ở đâu?" mà không cần load nguyên
apps/*. - Refactor cross-file: hỏi "all callers of
parseInvoice()" — retrieve semantic, gồm cả wrapper và alias màgrepthường miss. - AI code review: chỉ đính snippet relevant cho diff thay vì toàn file — review nhanh, ít noise.
- Debug legacy: hỏi tự nhiên "where do we validate JWT?" — không cần biết tên hàm chính xác.
Đối tượng hưởng lợi nhất: team có repo >100k LOC, indie dev xài Cursor/Claude Code đang đốt token API vì agent đọc lan man.
Limitations & pricing
Pricing rất friendly:
- Plugin MIT, free hoàn toàn.
- Zilliz Cloud có free tier vector DB.
- Embedding cost: OpenAI
text-embedding-3-small~$0.02 / 1M tokens, hoặc Ollama chạy local miễn phí.
Hạn chế thực tế:
- Cần Node.js 20–23 (Node 24 chưa tương thích).
- Cần một embedding provider key (hoặc Ollama local).
- Index lần đầu cho repo siêu lớn vẫn tốn vài phút.
- Chất lượng retrieval phụ thuộc model embedding chọn — VoyageAI
voyage-code-3là lựa chọn tối ưu cho code nhưng có cost riêng.
What's next
Project rebrand từ "Code Context" sang "Claude Context" khi Claude Code ecosystem bùng nổ — tín hiệu Zilliz xác định MCP là chuẩn trung lập cho coding agent infra. Roadmap đoán được từ activity: mở rộng thêm MCP client, thêm embedding provider, tối ưu chunking cho ngôn ngữ ít phổ biến, có thể remote-hosted index để team share cùng một index.
Cài thử trong 60 giây:
claude mcp add claude-context \
-e OPENAI_API_KEY=sk-... \
-e MILVUS_ADDRESS=<endpoint> \
-e MILVUS_TOKEN=<token> \
-- npx @zilliz/claude-context-mcp@latestNếu bạn đang trả token API mỗi tháng cho coding agent đọc cả folder thay vì đúng đoạn cần, đây là hạng mục cần test trước khi tăng giới hạn budget.
Nguồn: GitHub zilliztech/claude-context, AugmentCode MCP overview, PulseMCP, tweet gốc của Mervin Praison.

