Vous voulez coller cette feuille de calcul dans ChatGPT. Vous voulez télécharger ce contrat dans Claude pour une analyse. Vous voulez demander à Gemini de résumer ce rapport interne. La question qui vous taraude : est-ce sûr ? La réponse est nuancée — certains usages sont véritablement sans danger, d'autres vous feront renvoyer, et la ligne entre les deux est plus claire que la plupart des gens ne le pensent.
Que se passe-t-il réellement avec vos données quand vous les collez dans ChatGPT ?
C'est la question fondamentale. Depuis 2026, voici comment chaque plateforme gère vos données :
ChatGPT (gratuit) : Vos conversations peuvent être utilisées pour entraîner les futurs modèles sauf si vous refusez dans Paramètres → Contrôles des données. Cela signifie que le contenu que vous collez pourrait théoriquement influencer les réponses futures du modèle à d'autres utilisateurs.
ChatGPT Plus/Team : OpenAI affirme qu'il n'entraîne pas sur vos conversations par défaut. Mais « par défaut » fait beaucoup de travail dans cette phrase — lisez les conditions attentivement.
Claude : Anthropic n'entraîne pas sur les conversations des utilisateurs de son API ou de ses forfaits Pro. Les conversations de niveau gratuit des utilisateurs grand public peuvent être utilisées pour la recherche en sécurité.
Gemini : Si votre administrateur Workspace l'a activé, Gemini for Workspace dispose d'une gestion des données d'entreprise. Les conversations Gemini grand public peuvent être examinées par des humains.
Les niveaux entreprise/payants sont généralement sûrs pour les données métier non sensibles. Les niveaux gratuits ne le sont pas. Si les données de votre entreprise posaient problème dans un ensemble d'entraînement, utilisez le niveau payant ou ne les collez pas.
Que ne devez-vous jamais mettre dans une IA ?
Indépendamment de la plateforme ou du niveau, ne collez jamais :
Les identifiants : Clés API, mots de passe, jetons, clés SSH. Les outils IA enregistrent les conversations, et les identifiants divulgués constituent des incidents de sécurité immédiats.
PII (informations personnellement identifiables) : Noms de clients + adresses e-mail, numéros de sécurité sociale, dossiers médicaux, numéros de comptes financiers. Ce n'est pas seulement risqué — dans de nombreuses juridictions, c'est illégal.
Données réglementées : Informations de santé protégées par HIPAA, dossiers d'éducation protégés par FERPA, données soumises à un NDA actif avec des clauses d'exclusion spécifiques à l'IA.
Code source avec des algorithmes propriétaires : La propriété intellectuelle principale de votre entreprise — algorithmes de trading, modèles ML propriétaires, implémentations en attente de brevet.
Que pouvez-vous probablement coller sans danger ?
Documents commerciaux génériques : Ordres du jour de réunions, rapports d'état, plans de projet, brouillons de texte marketing. Ceux-ci ne contiennent aucune donnée sensible et seraient dénués de sens hors contexte.
Données accessibles au public : Tout ce que vous pourriez trouver sur le site web de votre entreprise, dans des communiqués de presse ou dans des dossiers publics.
Données anonymisées : Feuilles de calcul où vous avez supprimé les noms, les adresses e-mail et les détails identifiants. « Le client A dans la région 3 a dépensé 4 200 $ au Q2 » c'est acceptable. « John Smith au 123 Main St a dépensé 4 200 $ » ne l'est pas.
Avant de coller quoi que ce soit, faites le « test du journal » : si ces données apparaissaient dans un article d'actualité attribué à votre entreprise, serait-ce un problème ? Si oui, ne les collez pas. Si non, vous êtes probablement en sécurité.
Comment proposez-vous une politique d'IA à votre entreprise ?
Si votre entreprise n'a pas de politique d'IA, vous avez une opportunité. Rédigez une simple page : quels outils sont approuvés, quelles données peuvent être utilisées, ce qui nécessite l'approbation d'un responsable. Présentez-le à votre responsable ou à votre équipe informatique. La personne qui crée la politique a généralement la possibilité de la façonner — et est reconnue comme avant-gardiste en la matière.
Le résumé
Cette semaine : Vérifiez les paramètres de votre plateforme IA. Assurez-vous d'avoir refusé l'entraînement aux données sur chaque compte de niveau gratuit que vous utilisez au travail. Puis ayez une conversation de 5 minutes avec votre responsable : « J'ai utilisé des outils IA pour [tâche]. Je veux m'assurer que je gère les données correctement. Avons-nous des directives ? »
À lire ensuite : Comment rechercher vos conversations ChatGPT (toutes les méthodes)