// Popular Articles
Muon không phải optimizer của Kimi: Sự thật về cha đẻ thật sự
Cộng đồng đang gọi Muon là 'optimizer của Kimi' sau khi Moonshot AI công bố Moonlight và K2. Sự thật: Muon do Keller Jordan (OpenAI) phát minh tháng 10/2024 để phá kỷ lục nanoGPT speedrun của Andrej Karpathy. Kimi chỉ là bên đầu tiên chứng minh nó scale được. Cùng làm rõ ai làm gì.
Gemma 4 26B A4B: con quái vật mã nguồn mở Google vừa thả ra cho máy tính cá nhân
Google DeepMind vừa phát hành Gemma 4 — bộ 4 mô hình mở dưới giấy phép Apache 2.0. Phiên bản 26B A4B dùng kiến trúc Mixture-of-Experts: 25.2 tỷ tham số tổng nhưng chỉ kích hoạt 3.8 tỷ mỗi token, đạt ELO 1441 trên Arena AI (top 6 mô hình mở thế giới), context 256K, đa phương thức text + ảnh + video, hỗ trợ 140+ ngôn ngữ. Quan trọng nhất: chạy gọn trên MacBook M4 Max hoặc RTX consumer với 16-18GB RAM ở quant 4-bit.
Chandra OCR 2: mô hình OCR 4B mã nguồn mở vượt GPT-4o và Gemini 2.5 Flash
Datalab vừa ra Chandra OCR 2 — mô hình 4B parameters đạt 85.9% trên olmOCR bench (SOTA), hỗ trợ 90+ ngôn ngữ, xử lý handwriting, math LaTeX, bảng phức tạp và biểu đồ. Nhỏ hơn Chandra 1 (9B) một nửa nhưng cao hơn ở mọi hạng mục.
Self-Attention vs Cross-Attention bằng tay: cùng thuật toán, khác đúng một input
Tom Yeh (byhand.ai) đặt self-attention và cross-attention cạnh nhau trong cùng một workbook. Khác biệt duy nhất: nguồn của K và V. Score matrix của self là vuông 128×128, của cross là chữ nhật 64×128. Hai cơ chế, một thuật toán.
Qwen-Image-2.0-Pro live: Alibaba leo top 10 Arena, đẩy text rendering đa ngôn ngữ lên tầm production
Alibaba vừa bật endpoint qwen-image-2.0-pro-2026-04-22: chất lượng ảnh sắc nét hơn, render text song ngữ chuẩn character-level, instruction following ổn định hơn giữa các style. Hiện xếp #9 worldwide ở Text-to-Image trên AI Arena. Thử miễn phí trên ModelScope hoặc cắm thẳng API qua Alibaba Cloud ModelStudio.
Qwen-Image Vừa Bẻ Khoá "Sharper Instruction Following" — Và Đây Không Phải Screenshot
Alibaba Qwen vừa khoe Qwen-Image bám sát prompt tốt hơn cho composition phức tạp: nhiều object, quan hệ không gian, attribute binding. Ảnh demo y như screenshot thật — nhưng là model sinh ra. Đây là vì sao điều đó quan trọng.
Mozilla ra mắt Thunderbolt — AI client mã nguồn mở chạy trên hạ tầng của chính bạn
MZLA Technologies (công ty con của Mozilla, đứng sau Thunderbird) vừa công bố Thunderbolt: một AI client mã nguồn mở MPL-2.0 cho doanh nghiệp, tự host bằng Docker hoặc Kubernetes, tự chọn model (Anthropic, OpenAI, Mistral, Ollama, llama.cpp), và giữ toàn bộ dữ liệu trong vành đai công ty.
GPT-Image-2 + Seedance 2.0: Vẽ "sơ đồ chuyển động camera" để điều khiển video AI
Một combo AI mới đang viral trên X: dùng GPT-Image-2 vẽ sơ đồ trajectory camera, đẩy sang Seedance 2.0 để render thành video 15 giây với góc máy chuẩn từng beat. Đây là cách hoạt động và vì sao nó nguy hiểm cho video gen text-to-video truyền thống.
Qwen3.6 35B chạy 164 tok/s trên creative writing với DFlash: kỷ lục mới của open-source MoE
Elliot Arledge công bố benchmark single-stream: Qwen3.6-35B-A3B (3B active) + DFlash drafter ở c=1 đạt 164 tokens/sec decode trên prompt creative writing — vượt xa con số 60-90 tok/s mà DGX Spark báo cáo, cho thấy combo MoE sparse + block-diffusion speculative decoding đang mở ra một trần tốc độ mới cho LLM 35B chạy local.
Nạp 12 Giáo Trình MIT Miễn Phí vào Claude - Hệ Thống Research Của Tôi Thay Đổi Hoàn Toàn
MIT công bố 12 giáo trình AI cấp graduate miễn phí, viết bởi chính các researcher xây dựng nên lĩnh vực này. Chỉ cần upload vào Claude Projects, Claude ngừng đoán pattern và bắt đầu lý luận từ lý thuyết xác suất thực sự. Khi dùng Kelly Criterion cho crypto, Claude tự push back và chỉ ra tại sao nó sai về mặt toán học. Setup mất 1 buổi chiều, hoàn toàn miễn phí.