En vag 10-ords prompt, der kræver 4 runder af præcisering, koster flere tokens end en præcis 80-ords prompt, der virker fra første gang. Den dyreste AI-interaktion er ikke den lange — det er den, du skal gentage. Her er 8 teknikker, der halverer tokenforbruget på tværs af Claude Code, Cursor og alle andre AI-kodningsværktøjer.

Vigtige fakta
  • Grundårsag: 60% af tokenspildet kommer fra at genforklare kontekst og iterere på vage prompts
  • Største løftestang: Start af nye samtaler (sparer gennemlæsning af hele historikken)
  • Anden løftestang: Bedre prompts (en god prompt erstatter 3-4 dårlige)
  • Værktøjer, der hjælper: Caveman (output-kompression), Code Burn (brugsovervågning)
  • Gælder for: Claude Code, Cursor, GitHub Copilot, Windsurf — alle sammen
  • Sidst bekræftet: April 2026

Hvorfor tokenspilder opstår

Alle AI-kodningsværktøjer fungerer på samme måde under motorhjelmen: din prompt plus hele samtalehistorikken sendes til modellen sammen med hver besked. Besked 1 er billig. Besked 20 er dyr — fordi modellen genlæser alle 19 tidligere beskeder, før den genererer et svar.

Det betyder, at det største tokendræn ikke er komplekse prompts. Det er lange samtaler. En 30-besked-samtale, hvor hver besked genlæser hele historikken, koster cirka 5x hvad seks separate 5-besked-samtaler ville koste for det samme arbejde i alt.

Det andet dræn er iteration. "Tilføj auth" → "Nej, jeg mente OAuth" → "Med Google-udbyder" → "Og tilføj rate limiting" → "Håndter også refresh tokens" koster fem interaktioner, når en detaljeret prompt havde løst det: "Tilføj OAuth-godkendelse med Google-udbyder, inklusiv rate limiting på auth-endpointerne og refresh token-håndtering."

De 8 teknikker

1. Start nye samtaler hver 15-20 beskeder. Dette er den vigtigste vane. Opsummér dine nuværende fremskridt i 3-4 sætninger, start en ny chat, indsæt opsummeringen som kontekst. Dit tokenforbrug pr. besked falder tilbage til baseline.

2. Skriv prompts som overdragelsesdokumenter. Inkluder hvad der eksisterer, hvad du vil have ændret, hvad der IKKE må røres, og det forventede resultat. En præcis prompt erstatter 3-4 vage. Netto token-besparelser: 60-70%.

3. Brug den rigtige model til opgaven. Claude Sonnet til rutineændringer. Opus til kompleks ræsonnering. Brug ikke den mest kraftfulde (og dyrest) model til opgaver, der ikke har brug for den. I Cursor vælges modellen manuelt i stedet for at bruge standarden.

4. Trim dit input. Hvis du beder Claude Code om at gennemgå en fil, skal du udtrække den relevante sektion — ikke fodre den hele 1.000-linjers fil, når kun 50 linjer betyder noget.

5. Bed ikke AI om at gentage eller omformatere. Kopier outputtet og omformater det selv. "Kan du omskrive det som kulepunkter?" koster det samme som det oprindelige svar plus det nye. Vælg teksten, omformater lokalt.

6. Brug Projects til vedvarende kontekst. I Claude kan du uploade din projektdokumentation, kodestandarder og præferencer til et projekt en gang. Hver samtale arver denne kontekst uden at brænde tokens på at genforklare det.

7. Installer Caveman til output-kompression. Plug-in'et Caveman med åben kildekode fjerner ordrige forklaringer fra Claude Code-svar og reducerer output-tokens med 40-60% samtidig med at kodepræcision bevares. Se vores vejledning til 3 Claude Code-repos for opsætningsinstruktioner.

8. Overvåg med Code Burn. Du kan ikke optimere hvad du ikke måler. Code Burn viser token-forbrug per fil, per samtale. Synligheden alene ændrer din adfærd.

Får du værdi fra dette? Vi udgiver praktiske AI-kostnadsparingsvejledninger ugentligt. Slut dig til læsere, der bygger smartere →

Matematikken, der ændrer din adfærd

Et typisk Claude Pro-abonnement giver dig cirka 45 Opus-beskeder pr. 5-timers vindue. Uden optimering forbrænder en kompleks kodningssession dette på 90 minutter. Med disse teknikker tager det samme arbejde 30-35 beskeder — og efterlader plads til resten af din dag.

Forskellen mellem "Jeg rammer altid hastighedsgrænser" og "Jeg rammer sjældent hastighedsgrænser" er ikke at betale for en højere tier. Det er arbejdsgangsdisciplin.

Den kontraintuitive sandhed om længere prompts

En længere, mere detaljeret prompt koster flere tokens pr. besked. Men det koster færre tokens pr. opgave, fordi det reducerer antallet af frem- og tilbage-beskeder. Vores Prompt Optimizer gør prompts længere og mere specifikke — og det er præcis derfor det sparer dig tokens overordnet set. En 80-ords prompt, der virker, koster mindre end fem 10-ords prompts, der ikke gør.

Den dyreste prompt, du kan skrive, er en kort, vag en, der skal sendes tre gange.

Det er hvad vi gør hver uge. Et dybdegående dyk i AI-værktøjer, arbejdsgange og ærlige meninger — ingen hype, ingen fyld. Slut dig til os →

Oplysning: Nogle links i denne artikel er affiliatelinks. Vi anbefaler kun værktøjer, som vi har testet personligt og bruger regelmæssigt. Se vores fuldstændig offentliggørelsespolitik.