TL;DR

Hơn 1.100 hackbot đã nộp báo cáo lỗ hổng trên HackerOne - 49% trong số đó hợp lệ. Nhưng con số đó không phải điều quan trọng nhất. Điều quan trọng là cách bạn prompting quyết định AI có thực sự "hack" được hay chỉ đang kiểm tra hộp checklist. Bài này tổng hợp 3 kỹ thuật prompt cốt lõi mà security researcher đang dùng để biến LLM từ auditor thành attacker.

Hackbot đang đến - và nhanh hơn bạn nghĩ

Theo báo cáo thường niên lần thứ 9 của HackerOne, valid AI vulnerability reports tăng 210% so với năm trước. Prompt injection - loại tấn công được xếp #1 trong OWASP Top 10 for LLM Applications - tăng 540%. Các tổ chức đưa AI vào phạm vi bug bounty tăng 270%, với tổng tiền thưởng AI-related lên tới $2.1 triệu (tăng 339% YoY).

HackerOne CEO Kara Sprague gọi đây là kỷ nguyên của "bionic hackers" - con người tăng cường bằng AI để khám phá lỗ hổng ở quy mô chưa từng có. 70% security researcher hiện tích hợp AI tools vào workflow, từ reconnaissance đến report writing.

Nhưng có một điểm yếu lớn: 78% lỗi hợp lệ từ hackbot là XSS. Business logic flaw, privilege escalation, chained exploit? Gần như không có. Đây là ranh giới mà cách bạn prompt AI tạo ra sự khác biệt.

3 kỹ thuật prompt từ thực chiến

Dưới đây là 3 nguyên tắc từ cộng đồng security researcher đang dùng AI để săn lỗ hổng mỗi ngày:

1. Đặt câu hỏi như attacker, không phải auditor

Thay vì hỏi "Is this code secure?", hãy hỏi "How would you break this?".

Sự khác biệt không chỉ là ngôn từ - nó thay đổi hoàn toàn luồng suy nghĩ của model. Câu đầu khiến AI đi theo checklist tuân thủ. Câu sau buộc AI generate attack strategy - nó tự hỏi kẻ tấn công sẽ khai thác cái gì, thay vì code này có đáp ứng tiêu chuẩn không.

Đây là sự khác biệt giữa một compliance scanner và một penetration tester.

2. Tránh bloated context - haystack che mất needle

Nhồi file MD lớn, hàng trăm dòng skill, toàn bộ codebase vào một lần prompting? Đây là sai lầm phổ biến nhất.

Khi context window bị lấp đầy bởi "rác" - scaffolding, boilerplate, doc không liên quan - model mất đi khả năng chú ý đến đúng chỗ quan trọng. Bug trở thành cái kim trong đống rơm. Nghiên cứu từ Bugcrowd xác nhận: các AI agent với false positive cao thường xuất phát từ context quá tải, model flag từ khóa thay vì hiểu ngữ nghĩa.

Nguyên tắc: feed đúng và đủ - không nhiều hơn những gì cần thiết cho task hiện tại.

3. Assert bug tồn tại - đừng để AI tự do "tìm kiếm"

Thay vì "Find bugs in this function", hãy dùng "This function has 3 vulnerabilities. Find them. Don't quit until you do."

Nghe có vẻ lạ, nhưng nó hoạt động. Khi bạn assert bug tồn tại, model không còn chạy theo happy path. Nó bị buộc phải suy nghĩ adversarially - tìm cách phá vỡ assumption, test edge case, truy vết data flow đến output.

Đây là kỹ thuật mà các CTF player và pentester kinh nghiệm đang áp dụng với LLM để tăng tỷ lệ phát hiện bug thực sự.

AI giỏi gì - và dở gì

Biết giới hạn của tool là phần quan trọng không kém biết cách dùng nó.

AI hiện giỏi: XSS, IDOR, SQL injection patterns, code path analysis, triage attack surface lớn, viết PoC script, phân tích JavaScript bundle, draft report.

AI vẫn dở: Business logic flaw (cần hiểu context nghiệp vụ), multi-step privilege escalation, chained exploit cross-system, và bất cứ thứ gì yêu cầu "common sense" về cách người dùng thực tế dùng hệ thống.

GPT-4 Turbo đã exploit thành công 33-83% vulnerability trong thí nghiệm kiểm soát - con số đáng nể nhưng vẫn còn khoảng trống lớn so với human pentester trên các mục tiêu phức tạp.

Kết luận của Bugcrowd: "AI is an amplifier of proven personal skills and methodologies, not a substitute."

Trở thành bionic hacker, không phải hackbot operator

Xu hướng rõ ràng: ai biết cách kết hợp AI vào workflow một cách có chiến lược sẽ hunt được nhiều hơn, nhanh hơn. Nhưng những người copy-paste cả codebase vào chat và hỏi "có bug không?" sẽ chỉ nhận được danh sách false positive vô nghĩa.

Ba kỹ thuật trên - attacker framing, lean context, assertion-based prompting - là điểm khởi đầu. Phần còn lại là methodology và kinh nghiệm của bạn.

AI không thay thế hacker. Nó nhân sức mạnh của hacker.

Nguồn: HackerOne 2025 HPSR, Bugcrowd, SecurityBrief Asia, @0xacb on X.