Belirsiz 10 kelimelik bir prompt'un 4 tur açıklama gerektirmesi, ilk denemede işe yarayan kesin 80 kelimelik bir prompt'tan daha fazla token'a mal olur. En pahalı AI etkileşimi uzun olan değil — tekrarlamak zorunda olduğunuz etkileşimdir. İşte Claude Code, Cursor ve diğer tüm AI kodlama araçlarında token kullanımını yarıya indiren 8 teknik.

Hızlı Bilgiler
  • Kök neden: Token kaybının %60'ı bağlamı tekrar açıklamak ve belirsiz prompt'ları tekrarlamaktan gelir
  • En büyük kaldıraç: Yeni konuşmalar başlatmak (tüm geçmişi tekrar okumaktan tasarruf sağlar)
  • İkinci kaldıraç: Daha iyi prompt'lar (bir iyi prompt 3-4 kötü olanın yerine geçer)
  • Yardımcı araçlar: Caveman (çıktı sıkıştırması), Code Burn (kullanım izleme)
  • Şu durumlarda geçerli: Claude Code, Cursor, GitHub Copilot, Windsurf — hepsinde
  • Son doğrulama: Nisan 2026

Token Kaybı Neden Oluşur

Her AI kodlama aracı aynı şekilde çalışır: prompt'unuz artı tüm konuşma geçmişi her mesaj ile modele gönderilir. 1. mesaj ucuzdur. 20. mesaj pahalıdır — çünkü model yanıt oluşturmadan önce önceki 19 mesajın tümünü tekrar okur.

Bu, en büyük token kaybının karmaşık prompt'lar olmadığı anlamına gelir. Uzun konuşmalardır. Her mesajin tüm geçmişi tekrar okuduğu 30 mesajlık bir konuşma, aynı toplam iş için altı ayrı 5 mesajlık konuşmanın maliyetinin kabaca 5 katına mal olur.

İkinci kaynak iterasyondur. "Kimlik doğrulama ekle" → "Hayır, OAuth demek istedim" → "Google sağlayıcısı ile" → "Ve hız sınırlama ekle" → "Ayrıca refresh token'larını işle" beş etkileşime mal olur, oysa bir ayrıntılı prompt bunu doğru yapmış olurdu: "OAuth kimlik doğrulaması ekle (Google sağlayıcısı ile), kimlik doğrulama endpoint'lerinde hız sınırlama ve refresh token işleme dahil."

8 Teknik

1. Her 15-20 mesajda yeni konuşmalar başlatın. Bu tek başına en etkili alışkanlıktır. Mevcut ilerlemenizi 3-4 cümle ile özetleyin, yeni bir sohbet başlatın, özeti bağlam olarak yapıştırın. İleti başına token maliyetiniz temel seviyeye düşer.

2. Prompt'ları devir belgeleri gibi yazın. Var olanları, değiştirmek istediğiniz şeyleri, değiştirilmemesi gereken şeyleri ve beklenen sonucu ekleyin. Bir kesin prompt 3-4 belirsiz olanın yerine geçer. Net token tasarrufu: %60-70.

3. Görev için doğru modeli kullanın. Rutin düzenlemeler için Claude Sonnet. Karmaşık akıl yürütme için Opus. En güçlü (ve en pahalı) modeli buna ihtiyaç duymayan görevler için kullanmayın. Cursor'da, varsayılanı kullanmak yerine modeli manuel olarak seçin.

4. Giriş'inizi kırpın. Claude Code'dan bir dosyayı incelemesini istiyorsanız, ilgili bölümü çıkarın — yalnızca 50 satır önemli olduğunda tüm 1.000 satırlık dosyayı beslemek istemeyin.

5. AI'dan tekrarlamasını veya yeniden biçimlendirmesini istemeyin. Çıktıyı kopyalayın ve kendiniz yeniden biçimlendirin. "Bunu madde işaretleri olarak yazabilir misin?" orijinal yanıt artı yeni olanın maliyetine eşittir. Metni seçin, yerel olarak yeniden biçimlendirin.

6. Kalıcı bağlam için Projeler'i kullanın. Claude'da, proje belgelerinizi, kodlama standartlarınızı ve tercihleri bir Project'e bir kez yükleyin. Her konuşma, onu tekrar açıklamadan bu bağlamı devralır.

7. Çıktı sıkıştırması için Caveman kurun. Açık kaynaklı Caveman plugin'i, Claude Code yanıtlarından ayrıntılı açıklamaları kaldırır ve çıktı token'larını %40-60 azaltırken kod doğruluğunu korur. Kurulum talimatları için 3 Claude Code depo kılavuzumuza bakın.

8. Code Burn ile izleyin. Ölçmediğiniz şeyi optimize edemezsiniz. Code Burn, dosya başına, konuşma başına token tüketimini gösterir. Görünürlük tek başına davranışınızı değiştirir.

Bununla ilgili değer buluyor musunuz? Uygulamaya dönük AI maliyet tasarrufu kılavuzlarını haftalık yayınlarız. Daha akıllı inşa eden okuyuculara katılın →

Davranışınızı Değiştiren Matematik

Tipik bir Claude Pro aboneliği, 5 saatlik pencerede kabaca 45 Opus mesajı verir. Optimizasyon olmadan, karmaşık bir kodlama oturumu bunu 90 dakikada tüketir. Bu teknikler ile aynı iş 30-35 mesaj alır — gün içinin kalanı için hareket alanı bırakır.

"Her zaman hız sınırlarına çarpıyorum" ile "Nadiren hız sınırlarına çarpıyorum" arasındaki fark daha yüksek bir katmana para ödemek değildir. İş akışı disiplinidir.

Daha Uzun Prompt'lar Hakkında Karşıt İşaretli Gerçek

Daha uzun, daha ayrıntılı bir prompt ileti başına daha fazla token'a mal olur. Ancak görev başına daha az token'a mal olur çünkü ileri geri mesaj sayısını azaltır. Prompt Optimizer'ımız prompt'ları daha uzun ve daha spesifik hale getirir — ve bu tam olarak neden genel olarak size token tasarrufu sağladığıdır. İşe yarayan bir 80 kelimelik prompt, işe yaramayan beş 10 kelimelik prompt'tan daha az paraya mal olur.

Yazabileceğiniz en pahalı prompt, üç kez gönderilmesi gereken kısa, belirsiz olandır.

Bu, her hafta yaptığımız şeydir. AI araçları, iş akışları ve dürüst görüşler hakkında bir derin dalış — abartı yok, dolgu yok. Bize katılın →

Açıklama: Bu makaledeki bazı bağlantılar bağlantı ortağıdır. Yalnızca kişisel olarak test ettiğimiz ve düzenli olarak kullandığımız araçları tavsiye ederiz. Tam açıklama politikamıza bakın.