TL;DR

Terence Tao - giải Fields Medal, được xem là nhà toán học vĩ đại nhất còn sống - đặt ra câu hỏi trọng tâm của AI thời đại này: "Làm thế nào để dùng một công cụ cực kỳ mạnh mẽ nhưng lại không đáng tin cậy?" Câu trả lời ngắn: chúng ta chưa giải được. Trong preprint tháng 3/2026 đồng tác giả với Tanya Klowden (arXiv:2603.26524) và nhiều phát biểu gần đây, Tao chỉ ra rằng các mô hình AI hiện tại được tối ưu để nghe có vẻ đúng, không phải để đúng thật sự. Khoảng cách đó không phải lỗi kỹ thuật nhỏ - nó là bản chất của kiến trúc, và đang gây ra thiệt hại đo được bằng hàng chục tỷ đô la.

Terence Tao phát biểu về AI

Chiếc gương thuyết phục

Tao mô tả LLM như một "chiếc gương thuyết phục" (convincing mirror): phản chiếu lại những gì người dùng muốn nghe, với giọng văn tự tin, cấu trúc logic, và ngôn ngữ chuyên môn đủ chuẩn để qua mắt người đọc thông thường.

Điều đáng sợ là ngay cả chuyên gia cũng bị đánh lừa. Tao thừa nhận: "Các tín hiệu phong cách mà tôi thường dùng để 'đánh hơi' một lập luận toán học sai hoàn toàn vô dụng với nội dung LLM tạo ra." Nếu một trong những bộ óc toán học sắc bén nhất thế giới phải đọc từng dòng để phát hiện lỗi, người dùng thông thường không có cơ hội.

Ông so sánh điều này với AI tạo ra "bài thuyết trình trông hấp dẫn đến mức bạn thực sự muốn dự - cho đến khi bạn hỏi sâu hơn và nhận ra toàn bộ là vô nghĩa."

Toán học đằng sau - tại sao AI "đoán" chứ không "biết"

Hiểu vấn đề cần hiểu một phương trình đơn giản:

W = ∑(w⊂i⊃ · x⊂i⊃) + b

Đây là dạng cơ bản nhất của mạng nơ-ron: trọng số wᵢ được nhân với đầu vào xᵢ, cộng với bias b. Trong quá trình huấn luyện, các trọng số này được điều chỉnh để tối thiểu hóa hàm mất mát - tức là làm cho đầu ra trông giống dữ liệu đúng nhất có thể.

Vấn đề: "giống dữ liệu đúng nhất" không phải là "đúng thật sự". Mô hình học cách sản sinh văn bản có phân phối xác suất gần nhất với dữ liệu huấn luyện. Nó học cấu trúc của sự thuyết phục, không học sự thật.

Khi mô hình "hallucinate" - nó không biết là nó đang sai. Không có cơ chế nội tại nào so sánh đầu ra với thực tế. Nghiên cứu MIT (2025) phát hiện: khi AI hallucinate, nó dùng ngôn ngữ tự tin hơn so với khi nó đúng.

Những con số biết nói

Khoảng cách giữa "thuyết phục" và "chính xác" không trừu tượng - nó có giá:

  • 67,4 tỷ USD - tổn thất toàn cầu từ AI hallucination năm 2024

  • 47% lãnh đạo doanh nghiệp đã ra quyết định lớn dựa trên nội dung AI chưa được kiểm tra

  • 4,3 giờ/tuần nhân viên mất để xác minh output AI - chi phí ~14.200 USD/người/năm

Theo lĩnh vực:

Lĩnh vực

Tỷ lệ hallucination

Incident đáng chú ý

Y tế

15,6%

60/1.357 thiết bị AI FDA phê duyệt có liên quan đến 182 vụ thu hồi

Pháp lý

18,7%

73 phán quyết tòa án liên quan AI hallucination chỉ trong 5 tháng đầu 2025

Tài chính

76,7%*

1 vụ robo-advisor ảnh hưởng 2.847 danh mục, chi phí khắc phục 3,2 triệu USD

*Gemini Advanced trên bộ kiểm tra financial literature (Columbia Journalism Review)

Đây là lý do Tao gọi y tế và tài chính là "vùng nguy hiểm" - nơi khoảng cách giữa thuyết phục và chính xác trả giá bằng tiền thật và tính mạng thật.

Tao đề xuất gì?

Tao không kêu gọi ngừng dùng AI. Ông đề xuất dùng AI đúng chỗ và kết hợp với lớp xác minh:

Dùng AI cho "blue team" tasks - những việc người dùng có thể tự kiểm tra độc lập:

  • Tìm kiếm tài liệu (phải check lại reference)

  • Viết code (chỉ khi người dùng hiểu ngôn ngữ đó)

  • Tính toán (cần sanity check)

  • Ideation - "thử những ý tưởng điên rồ hơn" mà không cần đầu tư lớn

Không dùng AI để: giải quyết bài toán mở chưa có lời giải - "điều này sẽ làm suy yếu khả năng tự giải quyết của bạn trong tương lai."

Giải pháp kiến trúc: Tích hợp AI với công cụ xác minh chính thức. Ông dẫn Lean - phần mềm xác minh bằng chứng từng dòng - như ví dụ về cách "giữ AI trung thực". Khi AI kết hợp với Lean, symbolic math packages, và internet search, khoảng cách plausibility-correctness thu hẹp đáng kể.

Tầm nhìn của ông: AI là cộng tác viên nghiên cứu, không phải người thay thế. AI giỏi về chiều rộng (breadth), con người giỏi về chiều sâu (depth). Các bài báo của ông sau khi dùng AI trở nên "phong phú và rộng hơn, nhưng không nhất thiết sâu hơn."

Ai nên quan tâm ngay bây giờ

Câu hỏi của Tao không chỉ dành cho nhà toán học. Nó quan trọng với:

  • Bác sĩ và nhân viên y tế - dùng AI để chẩn đoán hoặc tư vấn điều trị

  • Chuyên gia tài chính - dùng AI để phân tích và khuyến nghị đầu tư

  • Luật sư - dùng AI tra cứu án lệ và soạn thảo văn bản pháp lý

  • Kỹ sư phần mềm - review code do AI sinh ra mà không hiểu logic

  • Mọi người - tin tưởng AI giải thích về sức khỏe, đầu tư, hay quyết định quan trọng

Nguyên tắc cốt lõi từ Tao: đừng dùng AI ở nơi bạn không thể tự kiểm tra kết quả. Nếu bạn không đủ năng lực để phát hiện khi AI sai, bạn đang giao quyết định cho chiếc gương thuyết phục.