// Popular Articles

Bitwarden CLI bị hijack trên npm: campaign TeamPCP lan sang package 78K lượt tải/tuần
#5142025-11-09

Bitwarden CLI bị hijack trên npm: campaign TeamPCP lan sang package 78K lượt tải/tuần

Package @bitwarden/cli@2026.4.0 đã bị chèn mã độc trong 93 phút tối 22/04/2026, quét sạch GitHub/npm token, SSH key, .env, shell history và cloud secret của dev cài bản này. Đây là mắt xích npm đầu tiên của campaign TeamPCP đã tấn công Trivy và Checkmarx Docker/VSCode trước đó.

supply-chain-attacknpm-securitybitwarden
7 phút đọc
#5112025-11-08

Brave Ocelot: mô hình tóm tắt web mã nguồn mở, chạy ngay trên máy bạn

Brave vừa open-source Ocelot — một mô hình AI do chính Brave huấn luyện, chuyên làm một việc duy nhất: tóm tắt nội dung web, và quan trọng hơn, chạy hoàn toàn trên thiết bị người dùng. Không gửi nội dung trang lên cloud, không cần tài khoản, không tính phí API.

braveoceloton-device-ai
6 phút đọc
#5092025-11-07

Firecrawl mở mã nguồn web-agent: framework dựng AI agent tự động duyệt web, bring-your-own-model

Firecrawl vừa open-source web-agent — đúng kiến trúc đứng sau endpoint /agent của họ, giờ đây forkable, MIT license, chạy với bất kỳ model nào (Anthropic, OpenAI, hoặc custom). Plan-Act loop, parallel subagents, Skills reusable playbook. Đây là tin đáng lưu ý cho team muốn tự host research agent mà không gửi data ra SaaS bên ngoài.

firecrawlweb-agentopen-source
6 phút đọc
ByteDance Seed3D 2.0: Mô hình 3D generation đạt dual SOTA, API đã live trên Volcano Engine
#5082025-11-06

ByteDance Seed3D 2.0: Mô hình 3D generation đạt dual SOTA, API đã live trên Volcano Engine

ByteDance chính thức ra mắt Seed3D 2.0 ngày 23/04/2026 — thế hệ mới của foundation model 3D với kiến trúc DiT coarse-to-fine, unified PBR, đạt >80% human preference về geometry và >69% về texture. Hỗ trợ part-level disassembly, jointed modeling, scene generation và tích hợp Isaac Sim. API đã có trên Volcano Engine qua Doubao.

seed3d-2-0bytedance3d-generation
7 phút đọc
#5052025-11-05

Async công bố benchmark inline text normalization: Flash v1.0 bỏ xa ElevenLabs và Inworld ở accuracy đọc số, ngày, tiền

Benchmark 2,200+ từ phi chuẩn qua 1,000+ câu, chạy streaming thật, không preprocess. Async Flash v1.0 đạt 81.2% sentence-level và 88.6% unit-level — cao gấp đôi ElevenLabs Flash v2.5 ở chế độ nghiệt nhất cho voice agent.

async-ttsvoice-aitext-normalization
7 phút đọc
#5032025-11-04

Thứ tự chuẩn 12 instructions trong Dockerfile — cheat sheet + lý do layer caching

Cheat sheet 12 instructions Dockerfile đúng thứ tự (FROM → CMD), kèm lý do layer-caching, rules cache invalidation, và top 10 anti-patterns phổ biến với fix cụ thể. Dùng được ngay cho project Node/Go/Python.

dockerfiledockerdevops
8 phút đọc
#4992025-11-02

DeepSeek ra mắt Tile Kernels: thư viện GPU kernel TileLang chạm giới hạn phần cứng

DeepSeek vừa open-source Tile Kernels — bộ GPU kernel viết bằng TileLang cho các pha MoE gating, routing, FP8/FP4 quantization và normalization. DeepSeek tuyên bố các kernel này đã được dùng trong training/inference nội bộ và đạt gần giới hạn lý thuyết về compute intensity cùng memory bandwidth.

deepseektile-kernelstilelang
7 phút đọc
#4982025-11-01

WIPWN: Công cụ pentest WPS WiFi chạy ngay trên Android qua Termux

WIPWN đóng gói Pixie Dust, brute-force PIN và recon WPS vào một CLI chạy trên điện thoại rooted Termux. Mạnh cho pentest có phép — và là lý do cuối cùng để bạn tắt WPS trên router.

wifi-securitywps-pixie-dustpentesting
7 phút đọc
InsForge: Backend built for AI coding agents, not humans
#4972025-11-01

InsForge: Backend built for AI coding agents, not humans

InsForge là nền tảng backend open-source (Apache 2.0, 7.8k sao GitHub) được thiết kế natively cho AI coding agents. Database, auth, storage, edge functions và model gateway expose qua một semantic layer MCP để Cursor, Claude Code, Codex có thể reason và operate end-to-end. Benchmark: 1.6× nhanh hơn, -30% token, 1.7× accuracy so với Supabase.

insforgeai-agentsbackend-as-a-service
7 phút đọc
Qwen3.6-27B chạy 256K context trên RTX 4090: kiến trúc hybrid đổi luật chơi local LLM
#4942025-10-30

Qwen3.6-27B chạy 256K context trên RTX 4090: kiến trúc hybrid đổi luật chơi local LLM

Một chiếc RTX 4090 24GB vừa chạy được 256K context với Qwen3.6-27B nhờ 48/64 lớp là Gated DeltaNet linear attention. Model 16.8GB + KV 4.6GB = 22GB, sinh 37 tok/s, còn hạ 397B MoE trên nhiều benchmark coding.

qwen3-6local-llmhybrid-attention
7 phút đọc