По данным IBM, 16% утечек данных теперь связаны с инструментами ИИ. Вы вставляете информацию клиентов в ChatGPT, proprietary код в Claude, финансовые данные в Gemini — и вы не знаете, какие из этих платформ используют ваш ввод для обучения своей следующей модели. Вот честный разбор политики конфиденциальности каждого крупного инструмента ИИ по состоянию на апрель 2026 года.
- ChatGPT Free: По умолчанию обучается на ваших данных. Возможность отказа доступна в настройках.
- ChatGPT Plus: По умолчанию обучается на ваших данных. Та же возможность отказа доступна.
- Claude Free: НЕ обучается на ваших беседах.
- Claude Pro: НЕ обучается на ваших беседах.
- Gemini Free: Обучается на ваших данных. Проверяющие-люди могут читать беседы.
- Gemini Advanced: Та же политика обучения. Возможность отказа доступна.
- Perplexity: Не использует запросы для обучения моделей.
- Все инструменты: Временно обрабатывают ваши данные на своих серверах — ничто не является по-настоящему «локальным», если вы не запускаете локальные модели.
- Последняя проверка: Апрель 2026
Матрица конфиденциальности
ChatGPT (OpenAI): Ваши беседы по умолчанию используются для обучения будущих моделей. Вы можете отказаться: Настройки → Управление данными → «Улучшить модель для всех» → отключить. Но это отключает историю беседы. Добавление объявлений в февраля 2026 года вызвало дополнительные проблемы со сбором данных — таргетирование объявлений обычно требует анализа поведения взаимодействия пользователей.
Claude (Anthropic): Anthropic не обучается на ваших беседах ни на одном уровне. Их политика конфиденциальности явно указывает, что беседы пользователей не используются для обучения модели. Это самая чистая позиция конфиденциальности среди крупных поставщиков.
Gemini (Google): Беседы с Gemini могут быть проверены человеческими аннотаторами и использованы для улучшения моделей ИИ Google. Учитывая рекламный бизнес Google, инфраструктура сбора данных более масштабна, чем у большинства конкурентов. Возможность отказа доступна, но скрыта в настройках.
Perplexity: Не использует ваши поисковые запросы для обучения моделей. Однако запросы временно хранятся для оказания услуги. Бизнес-модель компании основана на подписке, а не на рекламе, что снижает структурный стимул к агрессивному сбору данных.
Copilot (Microsoft): Корпоративные и деловые уровни имеют сильные гарантии конфиденциальности — данные не используются для обучения. Потребительский уровень менее понятен. Корпоративные соглашения Microsoft входят в число наиболее защищающих конфиденциальность в отрасли.
Получаете ценность от этого? Мы освещаем конфиденциальность ИИ и политики с честным анализом. Присоединитесь к читателям, которые остаются информированными →
Что вы никогда не должны вставлять в любой инструмент ИИ
Независимо от политик конфиденциальности, относитесь к каждому взаимодействию с ИИ как потенциально неприватному. Никогда не вставляйте: пароли, API ключи или токены аутентификации. Номера социального страхования, номера финансовых счетов или личные медицинские записи. Конфиденциальные клиентские документы или коммуникации. Proprietary исходный код, который является торговой тайной. Частные коммуникации других людей без их согласия.
Stack, осознающий конфиденциальность
Если конфиденциальность является приоритетом, вот stack, который минимизирует уязвимость. Claude Pro ($20/месяц) для большинства задач — никакого обучения на беседах, нет объявлений, самая чистая политика конфиденциальности. Perplexity для исследования — никакого обучения на запросах, модель на основе подписки. Локальные модели через Ollama для особо чувствительной работы — ничего не покидает ваше устройство. Общая стоимость: $20/месяц плюс компьютер, способный запускать локальные модели.
Для полного сравнения всех инструментов ИИ, включая политики конфиденциальности, см. нашу страницу State of AI Models.
Главный вывод
Политика конфиденциальности вашего инструмента ИИ имеет значение, потому что вы подаете ему свое мышление — ваши стратегии, данные ваших клиентов, вашу конкурентную разведку. Разница между инструментом, который обучается на ваших данных, и инструментом, который это не делает, — это разница между сотрудником и подрядчиком, который фотокопирует все перед возвратом ваших файлов.
Выбирайте инструменты, чей бизнес-модель не зависит от монетизации вашего ввода.
Это то, что мы делаем каждую неделю. Один глубокий разбор инструментов ИИ, рабочих процессов и честных мнений — без шумихи, без лишнего. Присоединитесь к нам →
Раскрытие: Некоторые ссылки в этой статье являются партнерскими ссылками. Мы рекомендуем только инструменты, которые мы лично тестировали и регулярно используем. см. нашу полную политику раскрытия информации.