TL;DR

Claude Context là MCP plugin open-source (MIT) do Zilliz phát triển, biến toàn bộ codebase thành một vector database có thể truy vấn ngữ nghĩa. Thay vì nhồi cả thư mục vào prompt mỗi lần hỏi, agent retrieve đúng đoạn code liên quan bằng hybrid BM25 + dense vector search. Kết quả: giảm ~40% token so với grep-based retrieval, ít đoán mò, response nhanh hơn. Hoạt động với Claude Code, Cursor, Windsurf, VS Code, Cline, Gemini CLI, OpenAI Codex CLI và hơn 10 client khác. Đã 5.6k+ stars trên GitHub, free tier xài được.

What's new

Vấn đề ai làm với AI coding agent trên repo lớn đều biết: agent hỏi gì cũng đoán, hoặc ngốn vài chục nghìn token chỉ để load file rồi vẫn miss đúng chỗ. Claude Context giải quyết theo hướng retrieval thay vì brute-force load:

  • Index codebase một lần vào vector DB (Milvus self-host hoặc Zilliz Cloud managed).
  • Mỗi câu hỏi của agent → hybrid search trả về chỉ những chunk semantic relevant.
  • Agent ăn context vừa đủ — đủ đúng, đủ ít, đủ nhanh.

Plugin expose 4 MCP tool đơn giản: index, search, clear, status. Cài 1 lệnh là chạy.

Why it matters

Token economy của AI coding bị broken cho repo > 100k LOC. Cursor reading file mode hay Claude Code @-mention nhanh chóng đụng trần context window. Mọi giải pháp tạm — split prompt, manual file selection, RAG ad-hoc — đều fragile.

Claude Context đem cách tiếp cận chuẩn của information retrieval production-grade (Milvus là vector DB stack tier-1) vào hẳn workflow của coding agent qua MCP. Không phải hack, không phải prompt engineering — mà là tầng infra retrieval thiếu lâu nay.

Technical facts

PropertyValue
LicenseMIT (open-source)
GitHub5.6k+ stars, 501 forks, 174+ commits
Search typeHybrid: BM25 keyword + dense vector
ChunkingAST-based (Tree-sitter), theo function/class/module
Re-indexMerkle tree diff, chỉ file thay đổi
Token reduction~40% so với grep-based retrieval
Languages14+: TS, JS, Python, Java, C++, C#, Go, Rust, PHP, Ruby, Swift, Kotlin, Scala, Markdown
Embedding providersOpenAI, VoyageAI (voyage-code-3), Ollama (local), Google Gemini
Vector DBMilvus (self-host) hoặc Zilliz Cloud
RuntimeNode.js ≥20 và <24

Ba quyết định kỹ thuật đáng chú ý:

  1. AST chunking với Tree-sitter: thay vì cắt theo dòng (chia lìa hàm, mất ngữ cảnh), nó cắt theo ranh giới syntactic. Mỗi chunk là một unit semantic trọn vẹn.
  2. Merkle incremental indexing: file edit xong, hash thay đổi, chỉ file đó re-index. Repo 1M LOC cũng không phải build lại từ đầu.
  3. Hybrid retrieval: dense vector match được intent ("auth flow", "webhook handler"), BM25 match được tên hàm/symbol cụ thể (parseInvoice). Hai layer bù nhau.

Comparison

Tiêu chíGrep / file load truyền thốngClaude Context
Cách lấy contextĐọc cả file/folder vào promptRetrieve chunks liên quan từ vector DB
Token cost trên repo lớnCao, load thừa nhiềuGiảm ~40%
Code structure awarenessKhông (chunk theo dòng)Có (AST theo function/class)
Re-index khi sửaRebuild fullMerkle diff, chỉ file thay đổi
Khớp ngữ nghĩa tự nhiênPhải gõ đúng keywordVector hiểu intent

So với các alternative cùng tier (CodeGrok MCP, MCP Vector Search, GrepAI), Claude Context nổi trội ở 3 điểm: hybrid dual-layer hoàn chỉnh, AST + Merkle indexing đầy đủ, và ecosystem MCP client rộng nhất với 15+ agent.

Use cases

  • Onboard agent vào monorepo: index một lần, agent trả lời "controller xử lý webhook ở đâu?" mà không cần load nguyên apps/*.
  • Refactor cross-file: hỏi "all callers of parseInvoice()" — retrieve semantic, gồm cả wrapper và alias mà grep thường miss.
  • AI code review: chỉ đính snippet relevant cho diff thay vì toàn file — review nhanh, ít noise.
  • Debug legacy: hỏi tự nhiên "where do we validate JWT?" — không cần biết tên hàm chính xác.

Đối tượng hưởng lợi nhất: team có repo >100k LOC, indie dev xài Cursor/Claude Code đang đốt token API vì agent đọc lan man.

Limitations & pricing

Pricing rất friendly:

  • Plugin MIT, free hoàn toàn.
  • Zilliz Cloud có free tier vector DB.
  • Embedding cost: OpenAI text-embedding-3-small ~$0.02 / 1M tokens, hoặc Ollama chạy local miễn phí.

Hạn chế thực tế:

  • Cần Node.js 20–23 (Node 24 chưa tương thích).
  • Cần một embedding provider key (hoặc Ollama local).
  • Index lần đầu cho repo siêu lớn vẫn tốn vài phút.
  • Chất lượng retrieval phụ thuộc model embedding chọn — VoyageAI voyage-code-3 là lựa chọn tối ưu cho code nhưng có cost riêng.

What's next

Project rebrand từ "Code Context" sang "Claude Context" khi Claude Code ecosystem bùng nổ — tín hiệu Zilliz xác định MCP là chuẩn trung lập cho coding agent infra. Roadmap đoán được từ activity: mở rộng thêm MCP client, thêm embedding provider, tối ưu chunking cho ngôn ngữ ít phổ biến, có thể remote-hosted index để team share cùng một index.

Cài thử trong 60 giây:

claude mcp add claude-context \
  -e OPENAI_API_KEY=sk-... \
  -e MILVUS_ADDRESS=<endpoint> \
  -e MILVUS_TOKEN=<token> \
  -- npx @zilliz/claude-context-mcp@latest

Nếu bạn đang trả token API mỗi tháng cho coding agent đọc cả folder thay vì đúng đoạn cần, đây là hạng mục cần test trước khi tăng giới hạn budget.

Nguồn: GitHub zilliztech/claude-context, AugmentCode MCP overview, PulseMCP, tweet gốc của Mervin Praison.