#9912026-05-06
Hack như AI: 3 kỹ thuật prompt biến LLM thành attacker thực sự
Valid AI vulnerability reports tăng 210% YoY trên HackerOne, với 560+ valid reports từ hackbot. Hỏi 'how would you break this?' thay vì 'is this code secure?' buộc LLM generate attack strategy thay vì auditor checklist. Nhồi context quá tải khiến bug trở thành kim trong đống rơm - feed đúng và đủ, không nhiều hơn. Assert 'function này có 3 lỗi, tìm đi' tăng tỷ lệ phát hiện bug thực sự.