Вы хотите вставить эту электронную таблицу в ChatGPT. Вы хотите загрузить этот контракт в Claude для анализа. Вы хотите попросить Gemini резюмировать этот внутренний отчет. Вас беспокоит один вопрос: это безопасно? Ответ неоднозначен — некоторые использования действительно безопасны, некоторые могут стоить вам работы, и граница между ними четче, чем думает большинство людей.
Что на самом деле происходит с вашими данными, когда вы вставляете их в ChatGPT?
Это основной вопрос. По состоянию на 2026 год, вот как каждая платформа обрабатывает ваши данные:
ChatGPT (бесплатный): Ваши разговоры могут использоваться для обучения будущих моделей, если вы не откажетесь в Settings → Data Controls. Это означает, что содержимое, которое вы вставляете, может теоретически повлиять на будущие ответы модели другим пользователям.
ChatGPT Plus/Team: OpenAI заявляет, что по умолчанию они не обучаются на ваших разговорах. Но выражение «по умолчанию» многое значит в этом предложении — внимательно прочитайте условия.
Claude: Anthropic не обучается на пользовательских разговорах из их API или Pro планов. Разговоры в бесплатной версии могут использоваться для исследований безопасности.
Gemini: Если администратор вашего Workspace это включил, Gemini for Workspace имеет корпоративную обработку данных. Разговоры в потребительской версии Gemini могут быть проверены людьми.
Корпоративные/платные тарифы обычно безопасны для некритичных бизнес-данных. Бесплатные тарифы — нет. Если данные вашей компании будут проблемой в наборе данных для обучения, используйте платный тариф или не вставляйте их.
Что никогда не следует вводить в AI?
Независимо от платформы или тарифа, никогда не вставляйте:
Учетные данные: Ключи API, пароли, токены, SSH ключи. Инструменты AI логируют разговоры, и утечка учетных данных — это немедленный инцидент безопасности.
PII (персональные идентифицирующие данные): Имена клиентов + адреса электронной почты, номера социального страхования, медицинские записи, номера финансовых счетов. Это не просто рискованно — в большинстве юрисдикций это незаконно.
Регулируемые данные: Информация, защищенная HIPAA, записи об образовании, защищенные FERPA, данные, подпадающие под действующий NDA с конкретными пунктами об исключении AI.
Исходный код с собственными алгоритмами: Основная интеллектуальная собственность вашей компании — торговые алгоритмы, собственные модели ML, реализации, ожидающие патента.
Что, вероятно, безопасно вставлять?
Универсальные бизнес-документы: Повестки совещаний, отчеты о статусе, планы проектов, черновики маркетингового копирайта. Они не содержат конфиденциальных данных и были бы бессмысленны вне контекста.
Общедоступные данные: Всё, что вы можете найти на веб-сайте вашей компании, в пресс-релизах или в открытых документах.
Анонимизированные данные: Электронные таблицы, из которых вы удалили имена, электронные адреса и идентифицирующие детали. «Клиент A в регионе 3 потратил $4200 в Q2» — это нормально. «Джон Смит по адресу 123 Main St потратил $4200» — нет.
Перед вставкой любых данных выполните «тест газеты»: если эти данные появились бы в новостной статье, приписываемой вашей компании, это была бы проблема? Если да, не вставляйте их. Если нет, вы, вероятно, в порядке.
Как предложить политику AI вашей компании?
Если у вашей компании нет политики AI, это возможность. Составьте простой однолистник: какие инструменты одобрены, какие данные можно использовать, что требует одобрения менеджера. Представьте это своему менеджеру или команде IT. Человек, который создает политику, обычно получает возможность её сформировать — и признание как передовой мыслитель в процессе.
Итоговое резюме
На этой неделе: Проверьте настройки вашей платформы AI. Убедитесь, что вы отказались от обучения на данных на каждом бесплатном аккаунте, который вы используете для работы. Затем проведите 5-минутный разговор со своим менеджером: «Я использовал инструменты AI для [задача]. Я хочу убедиться, что я правильно обрабатываю данные. Есть ли у нас руководства?»
Читайте дальше: How to Search Your ChatGPT Conversations (Every Method)