AI không nói dối có chủ ý. Nó không biết sự khác biệt giữa sự thật và hư cấu. Khi ChatGPT tự tin trích dẫn một nghiên cứu không tồn tại, hoặc Claude bịa ra một thống kê nghe có vẻ hợp lý, nó đang làm chính xác những gì nó được thiết kế để làm: dự đoán những từ tiếp theo có khả năng nhất. Đôi khi những từ có khả năng nhất là sai. Đây được gọi là ảo giác, và hiểu được nó là điều quan trọng nhất duy nhất về việc sử dụng AI một cách an toàn.

Các sự kiện nhanh
  • Nó là gì: AI tạo ra thông tin nghe có vẻ tự tin nhưng không chính xác về mặt thực tế
  • Tại sao nó xảy ra: AI dự đoán văn bản có khả năng xảy ra, không phải các sự kiện đã được xác minh
  • Phổ biến như thế nào: Khác nhau tùy theo mô hình và nhiệm vụ — xảy ra thường xuyên nhất với các sự kiện cụ thể, ngày tháng và trích dẫn
  • Nguy hiểm nhất: Khi đầu ra nghe có vẻ hợp lý và bạn không xác minh
  • Phòng chống tốt nhất: Sử dụng Perplexity cho các sự kiện (nó trích dẫn nguồn) và luôn xác minh các yêu cầu quan trọng
  • Xác minh lần cuối: Tháng 4 năm 2026

Tại sao AI bị ảo giác

Các mô hình AI học bằng cách phân tích các mẫu trong những lượng văn bản khổng lồ. Chúng học rằng các từ và cụm từ nhất định thường xuất hiện cùng nhau. Khi bạn đặt một câu hỏi, mô hình tạo ra phản hồi bằng cách dự đoán những từ có khả năng nhất sẽ theo sau — không phải bằng cách tra cứu các sự kiện trong cơ sở dữ liệu.

Điều này có nghĩa là AI rất tốt trong việc tạo ra văn bản nghe có vẻ đúng và thường thực sự đúng. Nhưng khi nó gặp một câu hỏi mà câu trả lời "nghe có vẻ đúng" và câu trả lời "thực sự đúng" khác nhau, nó chọn cái nghe có vẻ đúng. Mỗi lần.

Các mẫu ảo giác phổ biến: bịa ra trích dẫn và bài báo nghiên cứu không tồn tại, bịa ra thống kê nghe có vẻ hợp lý, trình bày thông tin lỗi thời là hiện tại, tự tin trả lời các câu hỏi mà nó không có đủ thông tin để trả lời, và tạo ra các chi tiết hư cấu khi tóm tắt các sự kiện thực tế.

5 cách để phát hiện ảo giác

1. Sử dụng Perplexity cho bất cứ điều gì cần phải đúng. Perplexity tìm kiếm trên web và trích dẫn nguồn. Nếu một yêu cầu quan trọng, hãy xác minh nó trong Perplexity thay vì tin tưởng ChatGPT hoặc Claude.

2. Hỏi AI nó tự tin như thế nào. "Bạn tự tin trong câu trả lời này bao nhiêu? Những phần nào có thể sai?" Các công cụ AI đang trở nên tốt hơn trong việc thừa nhận sự không chắc chắn khi được hỏi trực tiếp.

3. Kiểm tra chéo với AI thứ hai. Nếu ChatGPT cung cấp cho bạn một thống kê, hãy hỏi Claude cùng một câu hỏi. Nếu họ không đồng ý, ít nhất một cái sai — điều tra thêm.

4. Hãy nghi ngờ các số cụ thể. Các tỷ lệ phần trăm chính xác, số tiền, ngày tháng và trích dẫn là những chi tiết được ảo giác phổ biến nhất. Các xu hướng chung và khái niệm đáng tin cậy hơn các điểm dữ liệu cụ thể.

5. Xác minh trước khi bạn xuất bản, trình bày hoặc quyết định. Đây là quy tắc duy nhất quan trọng. Bất kỳ sự kiện nào từ AI mà bạn sử dụng trong công việc công khai, quyết định kinh doanh hoặc giao tiếp quan trọng nên được xác minh một cách độc lập.

Nhận giá trị từ điều này? Chúng tôi xuất bản hàng tuần về cách sử dụng AI hiệu quả và an toàn. Tham gia những người đọc được cập nhật →

Khi ảo giác không quan trọng

Không phải mọi tác vụ AI đều yêu cầu độ chính xác về thực tế. Brainstorming ý tưởng, soạn thảo nội dung sáng tạo, khám phá các phong cách viết, tạo cấu trúc mã và suy nghĩ về các tình huống giả định — những tác vụ này không bị ảnh hưởng bởi sai sót thỉnh thoảng vì bạn sử dụng đầu ra như một điểm khởi đầu, không phải là nguồn sự thật.

Vùng nguy hiểm là hẹp nhưng quan trọng: khi bạn cần các sự kiện, số liệu, trích dẫn, giải thích pháp lý, thông tin y tế, hoặc bất kỳ yêu cầu nào mà bạn sẽ trình bày là đúng. Đối với những tác vụ này, AI là một trợ lý, không phải một cơ quan thẩm quyền.

Để biết thêm về việc sử dụng các công cụ AI hiệu quả, hãy xem hướng dẫn cho người mới bắt đầu hoặc so sánh các mô hình AI trên trang State of AI Models của chúng tôi.

Đây là những gì chúng tôi làm mỗi tuần. Một bài phân tích sâu về các công cụ AI, quy trình làm việc và quan điểm thành thật — không hype, không filler. Tham gia chúng tôi →

Công bố: Một số liên kết trong bài viết này là các liên kết liên kết. Chúng tôi chỉ đề xuất các công cụ mà chúng tôi đã kiểm tra cá nhân và sử dụng thường xuyên. Xem chính sách công bố đầy đủ của chúng tôi.