// Popular Articles
Kimi K2.6 lên Perplexity Pro & Max: open-weight SOTA giờ chỉ cách bạn 1 toggle
Moonshot vừa thả Kimi K2.6 — 1T params MoE, 256K context, swarm 300 sub-agent, đứng #1 open-weight và bám sát GPT-5.4 / Opus 4.6. Perplexity ship cho Pro và Max ngay, không cần API key.
OpenRouter ghép GPT-5.4 với GPT Image 2: một endpoint, vừa reasoning vừa sinh ảnh 2K
OpenAI ra GPT Image 2 ngày 21/4/2026 và chiếm #1 Image Arena với cách biệt +242 điểm chỉ sau 12 giờ. Cùng ngày, OpenRouter tung openai/gpt-5.4-image-2 — một API duy nhất kết hợp reasoning của GPT-5.4 với khả năng sinh ảnh 2K có text chuẩn, multi-ngôn ngữ, và batch 8 panel nhất quán.
Phala tăng tốc vLLM loading trong GPU TEE lên 32 lần — và vì sao đây là mảnh ghép cuối cho confidential AI
Inference trong GPU TEE chỉ overhead <7%. Nhưng cold-start thì kinh khủng — tải một model 70B có thể mất vài phút vì bounce buffer encrypt bằng CPU. Phala vừa nén con số đó xuống 32 lần.
PulseBench-Tab: Benchmark Mới Cho Table Extraction Đa Ngôn Ngữ Vừa Được Open-Source
Pulse AI vừa mở mã nguồn PulseBench-Tab — benchmark frontier cho table extraction với 1.820 bảng được human-annotate trên 9 ngôn ngữ, kèm metric T-LAG đánh giá cả structure lẫn nội dung trong một con số duy nhất. Pulse Ultra 2 dẫn đầu leaderboard với 0.9347, bỏ xa Gemini 3.1 (0.8155) và các agentic pipeline như LlamaParse, Reducto.
OpenAI ra mắt Workspace Agents: biến ChatGPT thành nền tảng tự động hoá cho team
OpenAI vừa công bố Workspace Agents — phiên bản "tiến hoá" của custom GPTs, chạy trên Codex ở cloud, có memory riêng, hook thẳng vào Slack, và được thiết kế cho cả team dùng chung. Miễn phí tới 6/5/2026, sau đó tính credit. Đây là cú đánh trực diện vào Microsoft Copilot, Google Agentspace và Salesforce Agentforce.
Qwen3.6 35B vs 27B trên MacBook M5 Max với TurboQuant: tốc độ hay chất lượng?
Một benchmark thực chiến so sánh Qwen3.6 35B-A3B (MoE) và Qwen3.6 27B (dense thinking) chạy local trên MacBook Pro M5 Max 64GB RAM với KV-cache nén bằng Google TurboQuant. Kết quả hé lộ trade-off rõ ràng giữa throughput và chất lượng planning.
Perplexity hậu-huấn luyện Qwen3.5 bằng SFT+RL: vượt GPT-5.4 trên FRAMES với chi phí rẻ hơn 4 lần
Perplexity công bố pipeline hậu-huấn luyện hai giai đoạn (SFT → GRPO) cho các mô hình search-augmented. Dựa trên Qwen3.5-397B-A17B, bản SFT-RL đạt 73.9% FRAMES ở ngân sách 4 tool call, vượt GPT-5.4 (67.8%) và Sonnet 4.6 (62.4%) với chi phí chỉ 2.0 cent/truy vấn — rẻ hơn 4× đến 7.5×.
Perplexity hé lộ công thức post-training: SFT giữ hành vi, on-policy RL đẩy độ chính xác
Perplexity vừa công khai pipeline hai giai đoạn đứng sau mô hình Sonar: fine-tune để giữ instruction-following và guardrails, rồi on-policy RL để cải thiện độ chính xác tìm kiếm và hiệu quả gọi tool — nhưng không làm hỏng những hành vi đã cài ở bước đầu.
OpenAI Privacy Filter: model 1.5B mở mã nguồn chuyên xoá PII trước khi đưa vào ChatGPT
Ngày 22/4/2026, OpenAI bất ngờ phát hành Privacy Filter — model token-classification 1.5B (50M active) chuyên phát hiện và che 8 loại PII, đạt 96% F1 trên PII-Masking-300k, chạy local trên laptop hoặc ngay trong browser qua WebGPU. Apache 2.0, miễn phí.
Kimi K2.6 đang FREE trên Nous Portal trong 24 giờ — Vercel AI Gateway mở cửa con quái vật 1T tham số
Nous Research vừa mở cửa miễn phí 24 giờ cho Kimi K2.6 — model open-weight 1T tham số của Moonshot AI, vừa đánh bại GPT-5.4 và Claude Opus 4.6 trên SWE-Bench Pro. Truy cập qua Hermes Agent, chạy trên hạ tầng Vercel AI Gateway.