// Popular Articles

#4282025-09-28

Fal Redesign: Claude Code skill biến trang vibe-coded thành thiết kế đẳng cấp

Fal Redesign là skill Claude Code mới do fal-ai community phát hành, dùng Claude Opus 4.7 + GPT Image 2 (và FLUX.2) để screenshot trang bạn vừa vibe-code, sinh mockup thiết kế lại, rồi viết ra build-spec có design tokens để áp thẳng vào HTML. Fully working nhưng super early — cài 1 dòng curl, gọi bằng câu `redesign index.html`.

claude-codefal-aiai-design
7 phút đọc
#4272025-09-27

Qwen3.6-27B: Mô hình dense 27B đánh bại chính 397B của Qwen trên coding benchmarks

Alibaba vừa release Qwen3.6-27B — một mô hình dense 27B open-source (Apache 2.0) vượt qua chính flagship 397B của họ trên các coding benchmark quan trọng. Nhẹ hơn ~15 lần, chạy local trên 1 GPU, đa mô-thức, có fast mode và deep reasoning mode.

qwen3-6open-source-llmcoding-ai
7 phút đọc
#4242025-09-26

OpenAI Workspace Agents: ChatGPT Business/Enterprise/Edu giờ có agent chạy 24/7 bằng Codex

OpenAI vừa ra mắt Workspace Agents — thế hệ kế thừa của custom GPTs: agent chạy cloud 24/7, dùng Skills, Connectors và scheduled actions, cắm thẳng vào ChatGPT và Slack. Có mặt trên Business, Enterprise, Edu và Teachers từ 22/04/2026, miễn phí đến 06/05 trước khi chuyển sang pricing theo credit.

openaichatgpt-businessworkspace-agents
7 phút đọc
#4222025-09-25

OpenAI mở mã Privacy Filter: mô hình 1.5B (50M active) chuyên phát hiện PII, chạy được trên laptop

OpenAI vừa bất ngờ ra mắt Privacy Filter trên HuggingFace dưới giấy phép Apache 2.0 — không phải LLM mới, mà là một token classifier 1.5B tham số (chỉ 50M active nhờ MoE) chuyên tìm và bôi đen dữ liệu cá nhân. 96% F1 trên PII-Masking-300k, 128k context, chạy được cả trong browser qua WebGPU.

openaiprivacy-filterpii-detection
6 phút đọc
#4182025-09-23

/ultrareview trong Claude Code: đội agent săn bug trên cloud trước khi merge

Anthropic vừa mở research preview /ultrareview trong Claude Code. Lệnh này dựng một đội sub-agent trên cloud, tự mình reproduce lại từng bug trước khi báo — tỉ lệ false positive dưới 1%. Pro và Max có 3 lượt miễn phí đến 5/5.

claude-codeultrareviewcode-review
7 phút đọc
#4112025-09-19

OpenAI Privacy Filter: Mô hình open-source đầu tiên năm 2026 — 1.5B params, chạy thẳng trong browser

OpenAI vừa phát hành Privacy Filter — mô hình open-source đầu tiên của 2026. Bidirectional token classifier adapt từ GPT-OSS, chỉ 50M active params, đạt 96% F1 trên PII-Masking-300k, chạy được local trong browser qua WebGPU. Apache-2.0, có sẵn trên Hugging Face.

openaiprivacy-filteropen-source-llm
6 phút đọc
#4102025-09-19

Looped Transformer chính là EBM inference: một phương trình, hai thế giới

Looped transformer và Energy-Based Model thực ra cùng một thuật toán gradient descent. Nhưng sự tương đương này không tự động đúng — nó đòi một ràng buộc Jacobian mà transformer thường không thỏa.

looped-transformerenergy-based-modelebt
7 phút đọc
#4052025-09-16

Full Fine-tuning vs Freezing Layers: Khi nào nên đông cứng W₁, W₂?

Full fine-tuning cho model nhiều quyền tự do nhất — nhưng mọi tham số cử động đều phải lưu lại. Freezing layers chấp nhận một sự thật đơn giản: phần lớn các lớp dưới chẳng cần học lại. So sánh hai chiến lược qua analogy MLP của Prof. Tom Yeh, kèm số liệu thực nghiệm 2025.

fine-tuningtransfer-learningdeep-learning
8 phút đọc
Qwen3.6-27B ra mắt: mô hình dense đa phương thức mạnh hơn cả bản MoE 35B
#4022025-09-15

Qwen3.6-27B ra mắt: mô hình dense đa phương thức mạnh hơn cả bản MoE 35B

Alibaba vừa open-source Qwen3.6-27B dưới Apache 2.0 — một mô hình dense 27B tích hợp sẵn vision encoder, xử lý ảnh/video/text trong một checkpoint duy nhất, và đánh bại cả bản MoE 35B-A3B ở gần như mọi benchmark coding, reasoning lẫn VLM.

qwenqwen3-6open-source-llm
7 phút đọc
MetaClaw: agent AI tự học, tự cập nhật trọng số ngay trong lúc bạn trò chuyện — không cần GPU
#3932025-09-10

MetaClaw: agent AI tự học, tự cập nhật trọng số ngay trong lúc bạn trò chuyện — không cần GPU

MetaClaw biến mỗi cuộc hội thoại thành tín hiệu học. Vừa chèn skill vào prompt tức thời, vừa fine-tune LoRA trên cloud trong lúc bạn ngủ hoặc họp. Kimi-K2.5 nhảy từ 21.4% lên 40.6%, gần bằng GPT-5.2 baseline.

metaclawllm-agentonline-rl
8 phút đọc