- Cognee thay RAG bằng pipeline ECL (Extract, Cognify, Load) + Memify, biến dữ liệu thành knowledge graph lai vector — chạy trong 6 dòng code, đạt ~90% accuracy so với ~60% của RAG, vừa gọi $7.5M seed.
TL;DR
Cognee là knowledge engine mã nguồn mở (Apache-2.0) cho AI agent memory, thay thế RAG truyền thống bằng pipeline ECL (Extract, Cognify, Load) cộng thêm bước Memify tự cải thiện. Ingest từ 38+ nguồn, kết hợp vector search với knowledge graph, đạt ~90% độ chính xác (so với ~60% của RAG thường). Vừa huy động $7.5M seed do Pebblebed dẫn dắt với thiên thần từ Google DeepMind, n8n, Snowplow. Cài đặt đúng 6 dòng Python.
What's new
Ngày 19/02/2026, Topoteretes UG (công ty mẹ của cognee, trụ sở Berlin) công bố vòng seed $7.5M do Pebblebed (Pamela Vagata — đồng sáng lập OpenAI — và Keith Adams — founder Facebook AI Research Lab) dẫn dắt, cùng 42CAP, Vermilion Ventures. Tiền sẽ đổ vào: Cognee Cloud, Rust engine cho edge device, cognitive memory research, và 30+ data connector mới trong Q1/Q2. Trước đó, tháng 11/2025 cognee tung cognee MCP — bridge Model Context Protocol cho Claude Desktop, Cursor, LangGraph, OpenAI / Anthropic MCP clients. Release mới nhất là v1.0.1, repo đã cán mốc 16.6k GitHub stars, 1.7k forks, 141 contributors.
Why it matters
Agents không có memory hành xử như "intern bị mất trí nhớ ngắn hạn" — mỗi câu hỏi đều bắt đầu từ zero, hallucinate, không nối được context. Team Vasilije Markovic (CEO, xuất thân big-data engineering + cognitive science/clinical psychology) lập luận: memory phải là một category riêng, không phải tính năng đính kèm RAG. Thay vì vá víu vector store + rules engine + logs, cognee cung cấp lớp memory có cấu trúc, có feedback loop, có temporal awareness — để agent thực sự học qua tương tác.
Technical facts
Pipeline 4 bước cognee:
import cognee
await cognee.add("your document here")
await cognee.cognify()
await cognee.memify()
results = await cognee.search("your query")- Add: ingest, flatten JSON, content-hash để dedupe, lưu vào storage layer.
- Cognify: LLM bóc entity + quan hệ thành triplets (subject, relation, object), chunk + embed; có flag
temporal_cognify=Truegắn thời gian vào edge. - Memify: prune node cũ, siết edge hay dùng, reweight dựa trên feedback.
- Search: mix vector similarity với graph traversal; các mode
RAG_COMPLETION,GRAPH_COMPLETION,FEEDBACK.
Stack mặc định: Kuzu (graph) + LanceDB (vector) + SQLite (relational), unify trong một engine. Hỗ trợ thay thế bằng Neo4j, Amazon Neptune, NetworkIX, Pinecone, FAISS, Chroma. LLM chạy được với OpenAI, Claude, hoặc local qua Ollama.
| Property | Cognee | Plain RAG |
|---|---|---|
| Retrieval accuracy (early benchmark) | ~90% | ~60% |
| Data sources | 38+ (PDF, CSV, SQL, API, audio…) | Thường chỉ text/PDF |
| Cross-session context | Có (graph persistent) | Không |
| Self-improvement | Memify + feedback edge-weights | Không |
| Temporal awareness | Có (temporal_cognify) | Không |
| Throughput | ~1 GB / 40 phút / 100+ containers | Breaks at ~50 MB với updates |
Comparison
RAG truyền thống chunk text → embed → vector search. Hỏi "Rebecca báo lỗi gì ở ticket #42?" có thể trả đúng, nhưng follow-up "Lỗi này từng xảy ra chưa?" sẽ mất context vì mỗi query là sự kiện độc lập. Re-index tốn ngày, không có ACID, dataset vài chục MB đã bottleneck.
Cognee build knowledge graph có cấu trúc rõ: (Alice, opened_ticket, Ticket_42), (Ticket_42, issue_type, Billing). Truy vấn đi theo graph hops thật chứ không dựa vào khoảng cách vector. Kết quả: context xuyên phiên, multi-hop reasoning, và pattern matching với recurring issues.
Use cases
- Customer support: Dynamo triển khai cognee trong 1 tháng cho hàng nghìn khách, nhớ history ticket, phát hiện recurring issue.
- Scientific research: Bayer dùng cognee cho workflow nghiên cứu (2026).
- Policy / legal: University of Wyoming build evidence graph từ hàng trăm PDF chính sách, truy ngược được page-level provenance.
- Banking: một Tier-1 US Bank unify dữ liệu credit card rải rác thành 1 graph để trả lời có trích dẫn.
- EdTech: Knowunity map quan hệ 40,000 học sinh Bremen — POC làm xong trong 2 ngày.
- AI assistants: medical assistants nhớ lịch sử bệnh, DevOps bots học nuance hạ tầng, SQL copilots làm chuyên gia distill kiến thức.
Production footprint 2025: từ ~2,000 lên hơn 1,000,000 pipeline runs (500× YoY), live ở 70+ công ty.
Integrations & deployment
Plug sẵn vào Claude Agent SDK, OpenAI Agents SDK, LangGraph, Google ADK, n8n, Hermes Agent. Qua MCP thì connect thẳng Claude Desktop và Cursor. Deploy 1-click trên Cognee Cloud, Modal, Railway, Fly.io, Render, Daytona — hoặc self-host với default stack.
Limitations & pricing
- API usability còn gap, chưa có mobile SDK, TypeScript support chưa đủ, khó scale terabyte.
- Incremental update trên unstructured data phải delete-and-replace do chunk alignment vỡ khi sửa cục bộ.
- LLM-based graph generation không hoàn toàn error-free — cần eval framework hoặc ontology thủ công để ground data. Auto-ontology generation nằm ở bản thương mại, open-source chỉ nhận ontology manual.
- Core: Apache-2.0, miễn phí. Cognee Cloud: managed, pricing qua sales.
What's next
Roadmap Q1/Q2 2026: Rust engine cho edge/on-device (latency + privacy), Cognee Cloud scale-out, 30+ connector mới, multi-database support, user DB isolation, cognitive memory research tiếp tục. Sự kiện gần nhất: Agentic AI Hackathon tại SF ngày 25/04/2026.
Nếu bạn đang vá RAG bằng rules engine + logs mà vẫn bị hallucinate, cognee là cách nhanh nhất để thử memory layer có cấu trúc — 6 dòng code là chạy được.
Nguồn: GitHub topoteretes/cognee, cognee.ai — seed announcement, Memgraph community call recap, cognee MCP, Beyond Recall tutorial.
