TL;DR

Cognee là knowledge engine mã nguồn mở (Apache 2.0) biến dữ liệu thô thành knowledge graph trong đó mỗi node đều có embedding. Kết quả: agent có thể truy hồi đồng thời theo độ tương đồng ngữ nghĩa theo quan hệ cấu trúc — gọi là GraphRAG thực sự, thay vì chỉ top-k chunks như RAG cổ điển.

  • 16.7k+ sao GitHub, Apache 2.0
  • Pipeline ECL (Extract-Cognify-Load) 6 bước, hợp nhất graph + vector + relational store
  • Trên HotPotQA multi-hop: 0.93 human-like correctness so với 0.40 của RAG cơ bản
  • Vừa huy động $7.5M seed (19/02/2026), dẫn đầu bởi Pebblebed
  • Có sẵn 6 dòng Python là chạy: addcognifysearch

What's new

Câu chuyện gốc xuất phát từ bài đăng của Daily Dose of DS: Cognee cho phép "xây agent không bao giờ quên" bằng cách coi bộ nhớ như một graph sống thay vì một đống embedding phẳng.

Khác với vector store thuần, Cognee đồng bộ ba lớp lưu trữ:

  • Graph store — mặc định Kuzu; hỗ trợ Neo4j, FalkorDB, Neptune, Memgraph
  • Vector store — mặc định LanceDB; hỗ trợ Qdrant, pgvector, Redis, DuckDB, Pinecone, ChromaDB
  • Relational store — mặc định SQLite; hỗ trợ PostgreSQL

Đơn vị cơ bản là DataPoint (Pydantic model) — mọi node trong graph đều có embedding tương ứng, nên query có thể nhảy qua lại giữa không gian ngữ nghĩa và không gian quan hệ liền mạch.

Why it matters

RAG truyền thống trả về top-k chunk theo cosine similarity — nghe kết quả rồi thôi, không hiểu vì sao các chunk đó liên quan. Với multi-hop reasoning ("ai là sếp của người đã ký hợp đồng với X năm ngoái?"), top-k thường trượt vì câu trả lời nằm sau 2–3 bước quan hệ, không phải trong cùng một đoạn văn.

Cognee dùng vector search làm gợi ý để định vị các triplet (subject–relation–object) trong graph, rồi traverse graph để xây context có cấu trúc trước khi LLM sinh câu trả lời. Đây là sự chuyển dịch từ retrieval phẳng sang relational reasoning.

Technical facts

Bốn thao tác cốt lõi của Cognee:

  1. add — nạp dữ liệu từ file, thư mục, URL, S3 (38+ định dạng). Content được normalize, dedupe bằng hash, gắn permission theo dataset.
  2. cognify — pipeline 6 giai đoạn: phân loại document → kiểm permission → chunking → LLM trích entity/relationship → sinh summary → embed + commit cạnh graph. Lần chạy sau chỉ xử lý file mới hoặc đã đổi.
  3. memify — tinh chỉnh sau ingestion: prune node cũ, strengthen quan hệ thường dùng, reweight cạnh theo tín hiệu tương tác, sinh fact phái sinh.
  4. search — truy vấn qua 14 retrieval modes, bao gồm GRAPH_COMPLETION (mặc định), GRAPH_COMPLETION_COT (chain-of-thought multi-hop), NATURAL_LANGUAGE (NL → Cypher), TEMPORAL (có chiều thời gian), và FEELING_LUCKY (LLM tự chọn chiến lược).

Cognee tách bộ nhớ thành hai lớp: session memory (cache ngắn hạn phục vụ reasoning nhanh) và permanent memory (artifact dài hạn, trace tương tác, quan hệ phái sinh được cross-link liên tục trong graph).

Support Python 3.10–3.13. Cài đặt:

uv pip install cognee

Comparison

Benchmark nội bộ Cognee trên 24 câu hỏi multi-hop HotPotQA, 45 lần chạy, so với Mem0, Graphiti, LightRAG, và base RAG:

MetricBase RAGCognee
Human-like correctness0.400.93 (+25% khi bật CoT)
DeepEval F10.84 (+314%)
DeepEval EM0.69 (+1618%)

Con số +1618% EM đáng kinh ngạc phản ánh thực tế: RAG phẳng gần như không answer đúng dạng exact-match trên multi-hop, trong khi graph traversal của Cognee có đường đi rõ ràng tới câu trả lời.

Use cases

  • Bayer — workflow nghiên cứu khoa học, ghép kết quả thí nghiệm với literature
  • University of Wyoming — evidence graph trên tài liệu chính sách, truy vết theo page-level provenance
  • Dilbloom, dltHub — tích hợp memory có cấu trúc cho data pipeline agent
  • Coding agent với ngữ cảnh dài (nhớ quyết định kiến trúc từ nhiều tuần trước)
  • Customer-support agent giữ ngữ cảnh qua nhiều session và tickets
  • Hệ thống compliance cần trace nguồn gốc và quan hệ giữa các fact

Cognee cho biết có hơn 70 khách hàng production và tăng trưởng pipeline 500× (từ 2k lên 1 triệu run/năm trong 2025).

Limitations & pricing

  • Giá: core OSS miễn phí (Apache 2.0). Managed cloud đang được mở rộng theo lộ trình 2026; chưa công bố giá per-seat cụ thể.
  • Chất lượng graph phụ thuộc chất lượng extraction của LLM — chi phí scale theo lượng ingestion.
  • Mặc định dùng OpenAI; provider khác cần config tay.
  • Traversal latency không phải chuyện nhỏ với graph rất lớn — Rust engine cho on-device/edge đang trong roadmap.
  • Không phải drop-in thay thế cho Q&A trên corpus phẳng — overkill nếu dữ liệu bạn không có cấu trúc quan hệ rõ.

What's next

Ngày 19/02/2026, Cognee công bố vòng seed $7.5 triệu dẫn đầu bởi Pebblebed (Pamela Vagata — đồng sáng lập OpenAI, và Keith Adams — sáng lập Facebook AI Research Lab), với 42CAP, Vermilion Ventures, cùng angel từ Google DeepMind, n8n, Snowplow.

Tiền được đổ vào bốn hướng: (1) mở rộng cloud platform, (2) Rust engine cho edge/on-device ưu tiên latency và privacy, (3) nghiên cứu cognitive memory, (4) tăng trưởng OSS với hỗ trợ đa-database và 30+ connector dữ liệu mới trong Q1–Q2.

Tích hợp sẵn với LangGraph, OpenAI Agents SDK, và Claude Agent SDK qua MCP — nghĩa là bạn có thể nhét Cognee làm memory layer cho agent hiện có mà không cần viết lại stack.

Nguồn: GitHub topoteretes/cognee, cognee.ai blog, thông cáo gọi vốn, Memgraph, LanceDB case study.