16% lỗ hổng dữ liệu hiện nay liên quan đến công cụ AI theo IBM. Bạn dán thông tin khách hàng vào ChatGPT, mã độc quyền vào Claude, dữ liệu tài chính vào Gemini — và bạn không biết nền tảng nào trong số đó sử dụng dữ liệu của bạn để huấn luyện mô hình tiếp theo của họ. Đây là phân tích trung thực về chính sách bảo mật của mọi công cụ AI lớn tính đến tháng 4 năm 2026.

Những Sự Kiện Nhanh
  • ChatGPT Miễn phí: Huấn luyện trên dữ liệu của bạn theo mặc định. Có tùy chọn từ chối trong cài đặt.
  • ChatGPT Plus: Huấn luyện trên dữ liệu của bạn theo mặc định. Cùng tùy chọn từ chối có sẵn.
  • Claude Miễn phí: KHÔNG huấn luyện trên cuộc trò chuyện của bạn.
  • Claude Pro: KHÔNG huấn luyện trên cuộc trò chuyện của bạn.
  • Gemini Miễn phí: Huấn luyện trên dữ liệu của bạn. Những người xem xét con người có thể đọc cuộc trò chuyện.
  • Gemini Advanced: Cùng chính sách huấn luyện. Tùy chọn từ chối có sẵn.
  • Perplexity: Không sử dụng truy vấn để huấn luyện mô hình.
  • Tất cả công cụ: Tạm thời xử lý dữ liệu của bạn trên máy chủ của họ — không có gì thực sự "cục bộ" trừ khi bạn chạy mô hình cục bộ.
  • Lần xác minh cuối cùng: Tháng 4 năm 2026

Ma Trận Bảo Mật

ChatGPT (OpenAI): Cuộc trò chuyện của bạn được sử dụng để huấn luyện các mô hình trong tương lai theo mặc định. Bạn có thể từ chối: Cài đặt → Kiểm soát Dữ liệu → "Cải thiện mô hình cho mọi người" → tắt. Nhưng điều này vô hiệu hóa lịch sử cuộc trò chuyện. Việc bổ sung quảng cáo vào tháng 2 năm 2026 đã tạo ra những lo ngại về thu thập dữ liệu bổ sung — nhắm mục tiêu quảng cáo thường yêu cầu phân tích hành vi của các tương tác người dùng.

Claude (Anthropic): Anthropic không huấn luyện trên cuộc trò chuyện của bạn ở bất kỳ cấp độ nào. Chính sách bảo mật của họ rõ ràng nêu rằng cuộc trò chuyện của người dùng không được sử dụng để huấn luyện mô hình. Đây là立trường bảo mật sạch nhất trong các nhà cung cấp lớn.

Gemini (Google): Cuộc trò chuyện với Gemini có thể được xem xét bởi những người ghi chú và được sử dụng để cải thiện các mô hình AI của Google. Với mô hình kinh doanh quảng cáo của Google, cơ sở hạ tầng thu thập dữ liệu rộng hơn hầu hết các đối thủ cạnh tranh. Tùy chọn từ chối có sẵn nhưng bị ẩn trong cài đặt.

Perplexity: Không sử dụng truy vấn tìm kiếm của bạn để huấn luyện mô hình. Tuy nhiên, truy vấn được lưu trữ tạm thời để cung cấp dịch vụ. Mô hình kinh doanh của công ty là dựa trên đăng ký, không phải quảng cáo, điều này làm giảm động lực cấu trúc để thu thập dữ liệu tích cực.

Copilot (Microsoft): Các cấp doanh nghiệp và kinh doanh có những bảo đảm bảo mật mạnh mẽ — dữ liệu không được sử dụng để huấn luyện. Cấp độ người tiêu dùng ít rõ ràng hơn. Các thỏa thuận doanh nghiệp của Microsoft nằm trong số những điều bảo vệ bảo mật nhất trong ngành.

Có giá trị từ điều này không? Chúng tôi đề cập đến bảo mật AI và chính sách với phân tích trung thực. Tham gia những độc giả được cập nhật thông tin →

Những Gì Bạn Không Bao Giờ Nên Dán Vào Bất Kỳ Công Cụ AI Nào

Bất kể chính sách bảo mật, hãy coi mọi tương tác AI là có khả năng không riêng tư. Không bao giờ dán: mật khẩu, API keys, hoặc token xác thực. Số an sinh xã hội, số tài khoản tài chính, hoặc hồ sơ y tế cá nhân. Tài liệu khách hàng bí mật hoặc thông tin liên lạc. Mã nguồn độc quyền cấu thành bí mật thương mại. Thông tin liên lạc riêng tư từ những người khác mà không có sự đồng ý của họ.

Stack AI Có Ý Thức Về Bảo Mật

Nếu bảo mật là ưu tiên, đây là stack giảm thiểu sự phơi nhiễm. Claude Pro ($20/tháng) cho hầu hết các tác vụ — không huấn luyện trên cuộc trò chuyện, không có quảng cáo, chính sách bảo mật sạch nhất. Perplexity cho nghiên cứu — không huấn luyện truy vấn, mô hình dựa trên đăng ký. Mô hình cục bộ thông qua Ollama cho công việc nhạy cảm — không có gì rời khỏi thiết bị của bạn. Tổng chi phí: $20/tháng cộng với máy tính có khả năng chạy mô hình cục bộ.

Để so sánh đầy đủ tất cả các công cụ AI bao gồm chính sách bảo mật, xem trang State of AI Models của chúng tôi.

Dòng Cuối Cùng

Chính sách bảo mật của công cụ AI của bạn rất quan trọng vì bạn đang cung cấp cho nó suy nghĩ của bạn — chiến lược, dữ liệu khách hàng, trí tuệ cạnh tranh của bạn. Sự khác biệt giữa một công cụ huấn luyện trên dữ liệu của bạn và một công cụ không huấn luyện là sự khác biệt giữa một nhân viên và một nhà thầu chép photo mọi thứ trước khi trả lại tệp của bạn.

Chọn những công cụ có mô hình kinh doanh không phụ thuộc vào việc kiếm tiền từ dữ liệu đầu vào của bạn.

Đây là những gì chúng tôi làm mỗi tuần. Một phân tích sâu về công cụ AI, quy trình công việc, và những quan điểm trung thực — không hype, không chất xơ. Tham gia chúng tôi →

Công bố: Một số liên kết trong bài viết này là liên kết liên kết. Chúng tôi chỉ khuyến nghị những công cụ chúng tôi đã kiểm tra cá nhân và sử dụng thường xuyên. Xem chính sách công bố đầy đủ của chúng tôi.