TL;DR

Một tweet từ @ClaudeDevs tóm gọn một trong những kỹ thuật agent quan trọng nhất hiện tại: AI agent có thể tự cải thiện liên tục bằng cách dùng một rubric mô tả tiêu chí hoàn thành nhiệm vụ, kết hợp một grader sub-agent chuyên đánh giá kết quả và trả về phản hồi cho vòng lặp tiếp theo.

Nghe đơn giản - nhưng đây chính xác là cơ chế đằng sau những hệ thống đang chạy trong sản xuất tại Meta, Google DeepMind và Cognition, tạo ra hiệu quả mà trước đây cần cả đội kỹ sư để làm thủ công.

Vấn đề agent gặp phải: Trần thủy tinh

Hầu hết AI agent đều chạm một cái trần không thoát được. Khi được triển khai, chúng ổn định ở một mức hiệu suất nhất định và dừng lại - dù môi trường thay đổi, dù có edge case mới. Agent đặt lịch họp với độ chính xác 80% vào ngày đầu tiên vẫn sẽ đạt 80% vào ngày thứ 300.

Lý do: không có vòng lặp học hỏi. Agent thực hiện nhiệm vụ, nhưng không biết nó làm tốt hay không, và không có cơ chế nào để tự điều chỉnh.

Pattern rubric + grader sub-agent phá vỡ cái trần này.

Cơ chế hoạt động: Ba thành phần, một vòng lặp

Kiến trúc chuẩn gồm ba thành phần hoạt động tuần tự:

  • Baseline Agent: Agent chính, thực hiện nhiệm vụ (viết code, tóm tắt tài liệu, gửi email...).
  • Grader Sub-Agent (LLM-as-a-Judge): Agent đánh giá chuyên biệt. Nhận output của baseline agent, đối chiếu với rubric, trả về ba thứ: điểm số, giải thích lý do, và phản hồi khả thi để cải thiện.
  • Meta-Optimization Agent: Đọc phản hồi từ grader, đề xuất chỉnh sửa cụ thể cho system prompt hoặc logic của baseline agent.

Vòng lặp diễn ra như sau:

  1. Baseline agent tạo output.
  2. Grader đánh giá theo rubric, cho điểm và giải thích.
  3. Meta agent đọc phản hồi, chỉnh sửa baseline agent.
  4. Baseline agent tạo output mới. Nếu điểm vượt ngưỡng (ví dụ 0.8) - phiên bản mới được chấp nhận và trở thành baseline tiếp theo.

Điểm mấu chốt: buộc grader phải giải thích lý do đánh giá giúp nó "cam kết" với một chuỗi logic, giảm đáng kể việc chấm điểm ngẫu nhiên và làm rõ chính xác điểm thất bại (thiếu context, gọi nhầm tool, v.v.).

Con số ấn tượng từ thực tế

Pattern này không chỉ là lý thuyết - các con số từ nghiên cứu và sản xuất rất cụ thể:

Hệ thốngKết quả
HyperAgents (Meta/Oxford/NYU)imp@50 = 0.630 trên Olympiad math; con người thiết kế tay: 0.0
SICA (Univ. Bristol)Tự chỉnh sửa code, nâng SWE-bench từ 17% lên 53%
GEPA (prompt optimizer)35x ít rollout hơn RL, chỉ cần 100-500 evaluations (RL cần 10,000+)
AlphaEvolve (Google DeepMind)Thu hồi 0.7% toàn bộ compute của Google; FlashAttention nhanh hơn 32.5%
Meta REA (Ranking Engineer Agent)3 kỹ sư cải thiện 8 model đồng thời; trước đây cần 2 người/model

Theo METR, khả năng tự vận hành của AI agent đang tăng gấp đôi mỗi 4 tháng (năm 2024-2025 tăng tốc từ 7 tháng xuống còn 4 tháng). Hiện tại, các model frontier có thể hoàn thành task tự động trong khoảng 50 phút với độ tin cậy 50%.

Ai nên áp dụng ngay

Pattern này hoạt động tốt nhất trong các domain có kết quả có thể kiểm chứng khách quan:

  • Kỹ sư phần mềm & MLOps: Coding agent tự đánh giá qua test suite, rubric code quality (correctness, efficiency, maintainability). Tích hợp vào CI/CD để catch regression tự động.
  • Nhóm làm tài liệu quy định (pharma, legal, finance): Grader sub-agent kiểm tra compliance từng tiêu chí - ví dụ FDA 21 CFR Part 11 cho dược phẩm.
  • Giáo dục lập trình: Rubric chấm bài code theo logic thay vì syntax - bỏ qua lỗi biên dịch nhỏ, đánh giá ý định lập trình.
  • Research agent: Groundedness check (claim có nguồn không), coverage check (có đủ fact quan trọng không), source quality check.

Một ví dụ cụ thể từ OpenAI Cookbook: grader cho agent tóm tắt tài liệu dược phẩm dùng 4 tiêu chí - chemical string name (giữ tên hóa chất chính xác), summarization length, cosine similarity, và LLM rubric - mỗi tiêu chí có ngưỡng riêng (0.85). Sau 5 vòng tự cải thiện, điểm tổng hợp tăng từ dưới 0.6 lên 0.802.

Giới hạn cần biết

Kỹ thuật này có một ràng buộc quan trọng mà thực tế năm 2026 đã xác nhận: self-improvement chỉ hoạt động đáng tin cậy trong các domain có kết quả có thể kiểm chứng khách quan.

Code hoặc compile hoặc không. Math proof đúng hoặc sai. Thuật toán nhanh hơn hoặc không. Trong những domain này, agent tạo ra candidate improvement, đánh giá theo metric rõ ràng, giữ lại nếu tốt hơn.

Nhưng trong marketing copy, strategic planning, hay relationship management - không có tín hiệu rõ ràng cho "tốt hơn". Không có rubric này, hệ thống tự cải thiện sẽ "hack" reward function - tối ưu proxy metric thay vì chất lượng thực sự.

Ngoài ra, LLM-as-judge còn có các bias cần xử lý: length bias (thích output dài hơn bất kể chất lượng), position bias (ưu tiên response xuất hiện trước), agreeableness bias. Nghiên cứu cho thấy error rate có thể vượt 50% trên các task phức tạp nếu rubric không đủ rõ ràng.

Tiếp theo là gì

Trong 12 tháng tới, pattern rubric + grader sub-agent dự kiến trở thành tính năng mặc định trong các framework agent lớn - không còn là custom add-on. Các dự báo chính:

  • Mọi framework agent nghiêm túc sẽ có lệnh "self-improve" tích hợp sẵn (Karpathy Loop - 630 dòng Python - đã chứng minh điều này khả thi).
  • Đến giữa 2027: agent có thể xử lý task cần vài giờ tự vận hành (nếu tốc độ tăng gấp đôi mỗi 4 tháng duy trì).
  • Thách thức 2 năm: mở rộng self-improvement sang domain "mềm" (writing quality, strategic decisions) thông qua LLM-as-judge phức tạp hơn và multi-metric optimization.

Open-source đang bắt kịp nhanh chóng: DeepSWE đạt 59% SWE-bench Verified với open weights; OpenEvolve là bản triển khai mã nguồn mở của AlphaEvolve. Trong vòng một năm, xây dựng một self-improving agent sẽ không còn đòi hỏi cơ sở hạ tầng ở quy mô Google.

Nguồn: Anthropic Engineering, o-mega.ai 2026 Guide, OpenAI Cookbook.