Du vil gerne indsætte det regneark i ChatGPT. Du vil gerne uploade den kontrakt til Claude til analyse. Du vil gerne bede Gemini om at opsummere den interne rapport. Spørgsmålet, der nager dig: er det sikkert? Svaret er nuanceret — nogle anvendelser er helt fint, nogle vil få dig fyret, og grænsen mellem dem er klarere end de fleste mennesker tror.

Hvad sker der egentlig med dine data, når du indsætter dem i ChatGPT?

Dette er kernespørgsmålet. Fra 2026 håndterer hver platform dine data sådan her:

ChatGPT (gratis): Dine samtaler kan blive brugt til at træne fremtidige modeller, medmindre du fravælger det i Indstillinger → Datakontrol. Det betyder, at indholdet, du indsætter, teoretisk kunne påvirke modellens fremtidige svar til andre brugere.

ChatGPT Plus/Team: OpenAI siger, at de som standard ikke træner på dine samtaler. Men "som standard" gør meget arbejde i den sætning — læs vilkårene nøje.

Claude: Anthropic træner ikke på brugersamtaler fra deres API eller Pro-planer. Samtaler på den gratis forbrugerniveau kan blive brugt til sikkerhedsforskning.

Gemini: Hvis din Workspace-administrator har aktiveret det, har Gemini til Workspace håndtering af virksomhedsdata. Samtaler med Gemini til forbrugere kan blive gennemgået af mennesker.

Vigtigste takeaway

Enterprise/betalte niveauer er generelt sikre til ikke-følsom forretningsdata. Gratis niveauer er ikke. Hvis din virksomheds data ville være et problem i et træningsdatasæt, skal du bruge det betalte niveau eller ikke indsætte det.

Hvad skal du aldrig putte i AI?

Uanset platform eller niveau, skal du aldrig indsætte:

Legitimationsoplysninger: API-nøgler, adgangskoder, tokens, SSH-nøgler. AI-værktøjer logfører samtaler, og lækkede legitimationsoplysninger er umiddelbare sikkerhedshændelser.

PII (Personligt identificerbar information): Kundenavne + e-mailadresser, sociale sikkerhedsnumre, medicinske journaler, finansielle kontonumre. Det er ikke bare risikabelt — i mange jurisdiktioner er det ulovligt.

Regulerede data: HIPAA-beskyttet sundhedsinformation, FERPA-beskyttede uddannelsesregistre, data under aktiv NDA med specifikke AI-udelukkelsesklausuler.

Kildekode med proprietære algoritmer: Dit selskabs centrale intellektuelle ejendomsret — handelsalgoritmer, proprietære ML-modeller, patentansøgningsimplementeringer.

Hvad er sandsynligvis fint at indsætte?

Generiske forretningsdokumenter: Mødeordener, statusrapporter, projektplaner, udkast til markedsføringskopi. Disse indeholder ingen følsomme data og ville være meningsløse uden for kontekst.

Offentligt tilgængelige data: Alt, hvad du kan finde på dit selskabs hjemmeside, i pressemeddelelser eller i offentlige arkiver.

Anonymiserede data: Regneark, hvor du har fjernet navne, e-mailadresser og identificerende detaljer. "Kunde A i Region 3 brugte $4.200 i Q2" er fint. "John Smith på 123 Main St brugte $4.200" er ikke.

Pro tip

Før du indsætter noget, skal du lave "avisavistesten": hvis disse data dukkede op i en nyhedsartikel tilskrevet dit selskab, ville det være et problem? Hvis ja, skal du ikke indsætte det. Hvis nej, er du sandsynligvis fint.

Hvordan foreslår du en AI-politik til dit selskab?

Hvis dit selskab ikke har en AI-politik, har du en mulighed. Udkast en simpel one-pager: hvilke værktøjer der er godkendt, hvilke data der kan bruges, hvad der kræver godkendelse fra lederen. Præsenter det for din leder eller IT-team. Den person, der opretter politikken, får normalt mulighed for at forme den — og bliver anerkendt som fremadtænkende i processen.

Bundlinjen

Denne uge: Tjek dine AI-platformsindstillinger. Sørg for, at du har fravalgt datatræning på hver gratis konto, du bruger til arbejde. Så har du en 5-minutters samtale med din leder: "Jeg har brugt AI-værktøjer til [opgave]. Jeg vil gerne være sikker på, at jeg håndterer data korrekt. Har vi retningslinjer?"

Læs næste: Hvordan du søger i dine ChatGPT-samtaler (Alle metoder)