// Popular Articles
Từ GraphQL Federation sang tRPC: P95 giảm 67%, bundle nhỏ 80%, 2.4M requests/ngày
Case study production thực tế vừa được InfoQ công bố: migration từ Apollo Federation sang tRPC trong 6 tuần. P95 latency 85ms → 28ms, client bundle 142KB → 28KB gzipped, bugs/tháng giảm 89%, CI/CD nhanh hơn 40%. Số liệu từ Datadog APM, scale 2.4M requests/ngày với 99.97% uptime.
ReasoningBank: Google dạy AI agent học từ cả thành công lẫn thất bại — success rate tăng +34.2%
Google Cloud AI Research vừa công bố ReasoningBank — một memory framework cho LLM agent, chuyển trải nghiệm (bao gồm cả lỗi) thành chiến lược tái sử dụng được. Kết quả: +8.3 điểm success rate trên WebArena, -16% interaction steps, mở ra một chiều scaling mới cho AI agent.
turbopuffer ship stem cache: tokenization nhanh gấp 2 khi bật stemming
Một tối ưu nhỏ đúng chỗ: cache kết quả stemmer cho các term lặp lại giúp pipeline tokenization của turbopuffer tăng ~2x throughput khi stemming bật. Chi tiết vì sao nó rẻ mà hiệu quả đến vậy.
Some cron jobs should never leave the database: Postgres Background Workers explained
Postgres Background Workers run inside the database server, not next to it. For small, state-driven, data-local jobs, pg_cron beats waking up an app server to run a query and write the result back.
Codex sự cố 10 phút: AI giúp sửa AI, nhưng insight đến từ con người
Ngày 21/4/2026, OpenAI Codex gặp sự cố ngắn ~10 phút. Thibault Sottiaux xác nhận Codex tự giúp điều tra — nhưng chính kỹ sư con người mới là người đưa ra insight quyết định. Một chi tiết nhỏ, nhưng phản ánh đúng vị trí thực của AI-assisted ops năm 2026.
Pluto: catch deprecated Kubernetes APIs before an upgrade breaks prod
Pluto is an open-source CLI from FairwindsOps that scans YAML manifests, Helm charts, and live Helm releases for deprecated or removed Kubernetes apiVersions — so your next minor upgrade doesn't turn into an outage.
R2 SQL thêm JSON functions, EXPLAIN FORMAT JSON và query Iceberg unpartitioned
Cloudflare vừa thêm ba nâng cấp lớn cho R2 SQL: parse JSON trực tiếp trong SQL, output query plan dạng JSON để phân tích tự động, và query được các bảng Iceberg chưa phân vùng — tất cả chạy serverless trên R2 Data Catalog với zero egress.
Cloudflare’s Code Mode MCP: toàn bộ 2.500+ API endpoint gói gọn trong ~1.000 tokens
Cloudflare vừa tung MCP server mới dùng kỹ thuật Code Mode — AI agent truy cập 2.594 endpoint (DNS, Workers, R2, Zero Trust, WAF…) qua chỉ 2 tool search() và execute(), cắt 99.9% token footprint và chạy code trong V8 isolate.
Cloudflare vừa tiết lộ stack AI nội bộ: 93% kỹ sư R&D dùng mỗi ngày, 241 tỷ token/tháng qua AI Gateway
Đội Dev Productivity của Cloudflare công bố hành trình 11 tháng scale AI coding từ vài đội thử nghiệm lên 93% toàn R&D, 241B token/tháng, và 100% merge request được AI review — tất cả chạy trên chính nền tảng họ bán.
xAI STT lên sóng trên LiveKit Inference: cascaded voice pipeline chỉ với 1 API key
LiveKit vừa bật xAI STT trong LiveKit Inference. Dev có thể chạy full cascaded voice pipeline (STT + Grok LLM + TTS) chỉ với một API key — control, observability và hot-swap component thoải mái. Grok STT claim 5.0% error rate trên phone call entity recognition, bỏ xa ElevenLabs (12%), Deepgram (13.5%), AssemblyAI (21.3%).