- 57% tổ chức đã có AI agent trong production, nhưng quality mới là barrier — không phải cost.
- Đây là 5 bài test lọc noise, primitives thực sự compound, và stack xanh/đỏ từ một engineer đã crack nhiều offer trên $250k trong field này.
TL;DR
Field AI đang bùng nổ launch mỗi tuần. Nhưng engineer thực sự thắng không phải người theo kịp tất cả — họ là người biết thứ gì compound và thứ gì lỗi thời trong 6 tháng. Playbook từ một engineer đã crack nhiều offer trên $250k, đang run technical tại stealth startup: học primitives, skip frameworks, ship boring infrastructure.
Bức tranh field 2026
Theo LangChain State of AI Agents (2025), 57% các tổ chức đã có AI agent trong production. Barrier lớn nhất không còn là chi phí — mà là chất lượng. Chính Claude Code, sản phẩm hàng đầu của Anthropic, vừa ship một regression 47% và bị cộng đồng người dùng phát hiện trước khi internal monitoring bắt được.
Đây là tín hiệu quan trọng: ngay cả các leader cũng đang figure it out. Không ai có bản đồ hoàn chỉnh. Non-coders đang pair với agents và ship thứ mà ML PhD gọi là impossible hôm thứ Ba, startups 6 tháng tuổi flourish vì các giant không biết nhiều hơn. Canvas đang rộng mở cho tất cả.
5 bài test để lọc noise
Bạn không thể theo kịp mọi launch. Bạn không nên thử. Thứ bạn cần là bộ lọc, không phải feed. 5 bài test đã hold up 18 tháng qua:
- Có quan trọng sau 2 năm không? Wrapper quanh frontier model → không. Primitive (protocol, memory pattern, sandboxing) → có. Half-life của wrappers rất ngắn.
- Ai đó respected đã build thứ gì thực trên nó và viết honest chưa? Marketing posts không tính. Postmortems mới tính.
- Adopt nó có buộc bỏ tracing, retries, config, auth hiện tại không? Nếu có → framework đang cố làm platform. 90% mortality rate.
- Skip 6 tháng tốn gì? Với hầu hết launch: không gì cả. Test này cho phép skip 90% launches mà không lo.
- Có đo được nó có giúp agents không? Nếu không đo được → đang chạy on vibes.
Skill ẩn dưới các test này khó đặt tên hơn tất cả: willingness to be uncool về thứ bạn không pick up. Framework viral trên Hacker News tuần này sẽ có army cheerleaders 14 ngày, rồi một nửa bị unmaintained. Những người không engage đã save attention cho thứ survive qua hype.
Primitives thực sự compound
Đây là những khái niệm survive model swap, framework swap, paradigm shift — pay compounding returns:
Context Engineering
Rename quan trọng nhất 2 năm qua: "prompt engineering" → "context engineering." Context là state. Mỗi token noise không liên quan làm giảm chất lượng reasoning. Context rot là production failure thực tế — đến step 8 của task 10 bước, goal ban đầu có thể bị chôn dưới tool output. Một team báo cáo giảm 40% retry loops chỉ bằng rewrite error messages: từ "Error: 400 Bad Request" sang "Max tokens 500 exceeded, try summarizing first."
Orchestrator–Subagent Pattern
Multi-agent debate 2024–2025 kết thúc bằng một synthesis mà mọi người đang ship: orchestrator delegate các task read-only hẹp cho isolated subagents, synthesize kết quả. Subagents không được mutate shared state. Orchestrator owns the writes. Đây là cách Anthropic research system hoạt động, cách Claude Code subagents hoạt động, cách Spring AI và hầu hết production frameworks standardize. Default là single-agent — chỉ reach for orchestrator–subagent khi single agent gặp bottleneck thực.
Evals và Golden Datasets
Mọi team ship reliable agents đều có evals. Mọi team không có thì không. Harvest production traces, label failures, treat đó là regression set. Spotify's judge layer vetoes ~25% agent outputs trước khi đến tay người dùng. Chỉ cần 50 labeled examples để start — không có lý do gì không làm từ ngày đầu. Và theo dõi unit economics ngay: $0.50/run = $50,000/tháng ở volume vừa phải. Model tiering (cheap model cho routing + premium cho reasoning) có thể giảm 40–60% tổng chi phí.
Stack xanh/đỏ April 2026
Dùng:
- LangGraph — production default, 90M monthly downloads, deployed tại Uber, JP Morgan, Klarna. Graph-based, built-in checkpointing, human-in-the-loop.
- MCP — protocol layer chuẩn. Linux Foundation steward, mọi major provider back. "USB-C of AI." Build tool integrations dưới dạng MCP servers.
- Langfuse — OSS observability default, self-hostable, MIT license. Tracing + prompt versioning + LLM-as-judge evals.
- E2B / Browserbase — sandboxed execution. Treat sandbox như primitive infra, không phải feature add-on.
- Claude Sonnet 4.6 — cost-performance sweet spot cho hầu hết workloads. Treat models như swappable components.
Skip: AutoGen/AG2 (community maintenance, stalled), CrewAI cho production (không có built-in checkpointing, teams consistently migrate away), Semantic Kernel (trừ khi locked vào MS stack), naïve parallel multi-agent, mọi pitch dùng từ "autonomous agent OS" mà không có qualification.
Cách thực sự bắt đầu
- Pick one outcome đã quan trọng. Không moonshot, không "horizontal platform." Deflect support tickets, draft legal review, qualify inbound leads. Đây trở thành eval target ngay ngày đầu — constraints mọi quyết định sau.
- Setup tracing và evals trước khi ship bất kỳ thứ gì. Langfuse hoặc LangSmith. 50 labeled examples là đủ. Bạn không thể improve thứ bạn không measure.
- Single-agent loop. LangGraph hoặc Pydantic AI. Claude Sonnet 4.6. 3–7 well-designed tools. File system hoặc database làm state. Ship cho small audience. Watch traces.
- Add scope chỉ khi earned it. Subagents khi context là bottleneck. Memory framework khi single-window không đủ. Đừng pre-architect những thứ failure modes chưa kéo vào.
- Re-evaluate models quarterly, không phải weekly. Lock in một quarter, chạy eval suite cuối quarter, switch nếu data nói vậy.
Take cuối
Mọi framework bạn không adopt là một migration bạn không nợ. Mọi benchmark bạn không chase là một quarter focus bạn giữ lại. Các companies đang thắng cycle này — Sierra, Harvey, Cursor — đã pick narrow targets, build boring discipline, để noise đi qua.
Context engineering compounds. Tool design compounds. Eval discipline compounds. Harness mindset compounds. Biết API của framework ra mắt tuần trước thì không. The credential is the artifact. Build things. Put them on the internet.
Nguồn: @rohit4verse, Anthropic Engineering, LangGraph.
