// Popular Articles

DeepSeek-V4-Pro ra mắt: 1.6T tham số, context 1M token, giá rẻ gấp nhiều lần GPT-5.4
#6212026-01-04

DeepSeek-V4-Pro ra mắt: 1.6T tham số, context 1M token, giá rẻ gấp nhiều lần GPT-5.4

DeepSeek vừa tung V4-Pro và V4-Flash — hai mô hình MoE open-weights với context 1 triệu token, đánh bại mọi model mở trên benchmark code, bám sát Gemini 3.1-Pro và GPT-5.4 với giá chỉ bằng một phần nhỏ. V4-Pro là mô hình open-weights lớn nhất từ trước tới nay.

deepseekdeepseek-v4open-source-llm
7 phút đọc
Claude Code không bị 'nerf' — Anthropic công bố post-mortem 3 con bug suốt 7 tuần
#6202026-01-03

Claude Code không bị 'nerf' — Anthropic công bố post-mortem 3 con bug suốt 7 tuần

Anthropic vừa công bố post-mortem giải mã đợt giảm chất lượng kéo dài gần 2 tháng của Claude Code. Thủ phạm không phải model: 3 thay đổi ở lớp harness và system prompt — reasoning effort bị hạ ngầm, một bug cache xoá thinking mỗi turn, và một dòng nhắc 'trả lời ≤25 từ' khiến eval coding rớt 3%. Tất cả đã fix, usage limit đã reset cho toàn bộ subscriber.

claude-codeanthropicpost-mortem
6 phút đọc
#6192026-01-03

DeepSeek V4 Pro & Flash leo Arena: 1.6T params, 1M context, rẻ hơn Claude 7 lần

DeepSeek vừa phát hành preview V4 ngày 24/04/2026 với hai model MoE — Pro (1.6T params, 49B activated) và Flash (284B, 13B activated) — cả hai đều context 1M token. V4-Pro leo #3 open model trên Code Arena, #2 trên Text Arena, sánh ngang GPT-5.4 và Kimi-2.6. Codeforces 3206 vượt GPT-5.4, giá output chỉ $3.48/M — rẻ hơn Claude Opus 4.6 tới 7 lần.

deepseek-v4open-source-llmarena-leaderboard
7 phút đọc
#6082025-12-28

DeepSeek V4 Preview: 1.6T open-source MoE, 1M context, và cuộc đua mới về chi phí mỗi token

DeepSeek vừa thả bản preview V4 ngày 24/4/2026: hai MoE 1M-context (Pro 1.6T/49B và Flash 284B/13B), trọng số mở MIT, API tương thích OpenAI và Anthropic. Codeforces 3206, LiveCodeBench 93.5, giá output Pro chỉ $3.48/M — rẻ hơn GPT-5.5 khoảng 8.6×.

deepseek-v4open-source-llmmoe
7 phút đọc
#6062025-12-27

OpenAI's gpt-realtime-1.5 opens a 20+ point lead on Sierra's voice leaderboard

OpenAI engineer Eric (@veggie_eric) says the newest Realtime voice model is 20+ points ahead of the nearest competitor on Sierra's τ³-Bench — a "pretty massive upgrade" from the December OG, with big realism and tool-calling gains.

gpt-realtimeopenaivoice-ai
6 phút đọc
Qwen3.6-27B: Mô hình dense 27B đánh bại MoE 397B trên agentic coding
#6012025-12-24

Qwen3.6-27B: Mô hình dense 27B đánh bại MoE 397B trên agentic coding

Alibaba vừa phát hành Qwen3.6-27B — dense model open-weight 27B tham số, Apache 2.0, 262K context native, multimodal, và đạt SWE-bench Verified 77.2 — chỉ cách Claude 4.5 Opus 3.7 điểm trong khi chạy được trên GPU 18GB.

qwen-3-6alibabaopen-source-llm
7 phút đọc
DeepSeek V4 ra mắt: MoE 1.6T mã nguồn mở, context 1 triệu token, output rẻ hơn GPT-5.5 tới 8.6 lần
#5892025-12-18

DeepSeek V4 ra mắt: MoE 1.6T mã nguồn mở, context 1 triệu token, output rẻ hơn GPT-5.5 tới 8.6 lần

Ngày 24/04/2026, DeepSeek tung bản preview V4 — hai biến thể MoE (Pro 1.6T/49B active và Flash 284B/13B active), cùng context 1M token tiêu chuẩn, đè bẹp Claude Sonnet 4.5 trong agentic coding và bán API rẻ hơn GPT-5.5 tới 8.6 lần.

deepseek-v4open-source-llmmoe-models
7 phút đọc
Codex + gpt-image-2 đẻ ra sprite sheet game 2D từ một dòng prompt: agent-sprite-forge mở màn
#5832025-12-15

Codex + gpt-image-2 đẻ ra sprite sheet game 2D từ một dòng prompt: agent-sprite-forge mở màn

Developer @0x0funky vừa mở mã nguồn agent-sprite-forge — Codex Skill biến prompt thành sprite sheet + GIF animation game-ready, chạy trọn pipeline bằng gpt-image-2 của OpenAI. Đây là case study đầu tiên lột tả vì sao Images 2.0 đáng quan tâm với indie dev và content creator.

codexgpt-image-2agent-skills
7 phút đọc
#5822025-12-14

Same Model, Same Prompt, Two Answers: How GPU Precision Silently Breaks LLM Safety

A new paper shows aligned LLMs refuse under BF16 and jailbreak under FP16 on the same prompt up to 84% of the time. No safety benchmark is controlling for precision — which means every public refusal rate you trust today is precision-dependent.

llm-safetyalignmentjailbreak
7 phút đọc
DeepSeek-V4 ra mắt: 1.6T MoE, 1M context, rẻ hơn GPT-5.5 tới 8.6 lần
#5772025-12-12

DeepSeek-V4 ra mắt: 1.6T MoE, 1M context, rẻ hơn GPT-5.5 tới 8.6 lần

DeepSeek vừa mở mã nguồn V4-Pro (1.6T total / 49B active) và V4-Flash (284B / 13B), cả hai đều có context 1 triệu token. Output token V4-Pro chỉ $3.48/M — rẻ hơn GPT-5.5 8.6× và Claude Opus 4.7 21×. Codeforces 3206, LiveCodeBench 93.5. Đã live trên API và chat.deepseek.com hôm nay.

deepseek-v4open-source-llm1m-context
7 phút đọc