Claude Opus 4.7 został wydany 16 kwietnia 2026 roku. W ciągu 48 godzin użytkownicy na Reddit, Hacker News i X zgłaszali to samo: prompty, które działały na Claude 4.6, nagle dawały krótsze, zwięźlejsze, czasem gorsze wyniki.

Model nie stał się głupszy. Stał się dosłowny. Przewodnik promptingu Anthropic dla Claude 4.7 mówi to wprost: „Prompty napisane dla wcześniejszych modeli mogą teraz czasem dawać nieoczekiwane wyniki. Tam, gdzie poprzednie modele interpretowały instrukcje luźno lub pomijały części całkowicie, Opus 4.7 traktuje instrukcje dosłownie.”

Claude 4.6 zgadywał, co miałeś na myśli. Claude 4.7 robi dokładnie to, co mówisz — ani więcej, ani mniej. Ta jedna zmiana psuje każdy nieprecyzyjny prompt, którego używałeś. Jeśli dopiero zaczynasz z promptami strukturalnymi, najpierw przejrzyj nasz artykuł prompt engineering for beginners. Ten przewodnik omawia 7 najważniejszych zmian i podaje konkretne poprawki oparte na najlepszych praktykach promptingu Anthropic oraz notatkach z wydania 4.7.

Kluczowe wnioski

Claude 4.7 jest silniejszy niż 4.6. Ale przestał kompensować niedbałe prompty — co wyjaśnia, dlaczego Claude 4.7 wydaje się gorszy w codziennym użytku, mimo że benchmarki się poprawiły. Jeśli twoje wyniki są gorsze, problem leży w twoim prompcie — nie w modelu.

Co właściwie zmieniło się w Claude 4.7?

Anthropic dostroił 4.7 pod kątem bardziej przewidywalnego, precyzyjnego w instrukcjach zachowania. To cenne dla programistów budujących agentów AI i potoki API, gdzie chcesz przewidywalnych wyników. W zamian model rzadziej sam proponuje informacje czy rozszerza zadanie, chyba że wyraźnie poprosisz.

Trzy główne zmiany — ten sam dostawca, inne domyślne ustawienia (gdy wybierasz między asystentami całkowicie, nasz ChatGPT vs Claude omawia różnice między modelami):

Zachowanie Claude 4.6 (Stare) Claude 4.7 (Nowe)
Przestrzeganie instrukcjiInterpretowane luźno, uzupełnianie lukTraktuje instrukcje dosłownie
Długość odpowiedziPrzybliżona stałość niezależnie od wejściaDopasowuje długość do postrzeganej złożoności zadania
Użycie narzędziCzęste wywoływanie narzędziWięcej rozumowania, mniej narzędzi
TonCiepły, nastawiony na walidację, przyjazny emojiBezpośredni, z opiniami, prawie zero emoji
Poziomy wysiłkuMniejsza różnica między poziomamiŚciśle przestrzega poziomów wysiłku — niski wysiłek = minimalny wynik

Dlaczego nieprecyzyjne prompty psują się na Claude 4.7?

„Przejrzyj tę umowę” kiedyś dawało kompleksową analizę. Na 4.7 dostajesz dokładnie to — przegląd. Bez oceny ryzyka, bez ocen surowości, bez sugestii poprawek. Tylko przegląd.

❌ STARY PROMPT

Przejrzyj tę umowę.

✅ PROMPT 4.7

Przejrzyj tę umowę. Wskaż ryzyka w każdej klauzuli. Oceń surowość 1-5. Zaproponuj jedną poprawkę na ryzykowną klauzulę. Zwróć w formie tabeli.

Rozwiązanie: Nazwij każdy oczekiwany wynik. Nazwij kolejność. Nazwij granice. Jeśli chcesz tabelę, powiedz „zwróć w formie tabeli”. Jeśli chcesz wypunktowanie, powiedz „użyj wypunktowania”. 4.7 nie zgadnie twojego preferowanego formatu.

Dlaczego Claude 4.7 zwraca 8 akapitów na „Podsumuj to”?

Claude 4.6 dawał mniej więcej tę samą długość niezależnie od rozmiaru wejścia. Claude 4.7 kalibruje długość odpowiedzi do tego, jak złożone ocenia zadanie. Długi dokument z „podsumuj” daje długie podsumowanie. Jeśli chcesz 5 punktów, musisz powiedzieć „5 punktów”.

❌ STARY PROMPT

Podsumuj ten raport.

✅ PROMPT 4.7

Podsumuj ten raport w dokładnie 5 punktach. Każdy punkt poniżej 15 słów. Pierwsze słowo każdego punktu: czasownik działania.

Rozwiązanie: Zawsze określ format i limit. „Poniżej 200 słów”. „Dokładnie 5 punktów”. „Maksymalnie 3 akapity”. Przewodnik Anthropic mówi: jeśli chcesz zwięzły wynik, dodaj „Podawaj zwięzłe, skoncentrowane odpowiedzi. Pomijaj nieistotny kontekst i trzymaj przykłady na minimum”.

Dlaczego negatywne instrukcje nie działają na Claude 4.7?

To najbardziej kontrintuicyjna zmiana. „Nie używaj żargonu” nie działa dobrze na 4.7, bo negatywne instrukcje są traktowane zbyt dosłownie — model skupia się na tym, CZEGO NIE robić, zamiast na tym, CO robić.

❌ STARY PROMPT

Nie używaj żargonu. Nie używaj buzzwordów. Nie brzmi jak marketer.

✅ PROMPT 4.7

Pisz prostą angielszczyzną, którą 16-latek przeczyta na głos. Używaj krótkich, konkretnych słów. Zamień „leverage” na „use”. Zamień „scalable” na „works at any size”.

Rozwiązanie: Przewodnik Anthropic zaleca mówić Claude, co robić, zamiast czego nie robić. Pozytywne przykłady pokazujące pożądany styl komunikacji działają lepiej niż negatywne instrukcje.

---

📬 Otrzymujesz wartość z tego? Publikujemy jeden głęboki przewodnik tygodniowo o narzędziach i workflowach AI. Dołącz do czytelników, którzy dostają go na skrzynkę →

---

Jak powinieneś zaczynać każdy prompt Claude 4.7?

„Czy możesz mi pomóc z tym emailem?” to pytanie. 4.7 może odpowiedzieć „tak” i czekać. Czasowniki działania mówią 4.7, by dostarczyła coś konkretnego.

❌ STARY PROMPT

Czy możesz mi pomóc z emailem?

✅ PROMPT 4.7

Napisz e-mail follow-up. Cel: umów spotkanie do piątku. Poniżej 90 słów. Ton: pewny, swobodny, konkretny.

Rozwiązanie: Zaczynaj każdy prompt od czasownika. Napisz. Przeanalizuj. Porównaj. Wymień. Sporządź. Zbuduj. Czasowniki działania eliminują niejednoznaczność co do tego, co 4.7 ma wyprodukować.

Jakie są poziomy wysiłku Claude 4.7 i który wybrać?

Claude 4.7 wprowadził nowy poziom wysiłku: xhigh, pomiędzy high a max. Rekomendacja Anthropic to xhigh do kodowania i pracy agentycznej, minimum high do zadań wrażliwych na inteligencję.

Dlatego to ważne: niski wysiłek Claude 4.7 odpowiada mniej więcej średniemu wysiłkowi Claude 4.6. Jeśli zostawiłeś domyślny poziom wysiłku, dostawałeś wyniki równoważne 4.6 od modelu, którego oczekiwałeś lepszego. To wyjaśnia większość skarg „4.7 jest gorszy”.

Poziom wysiłku Najlepsze do Uwaga
maxNajtrudniejsze problemy rozumowaniaSkłonny do nadmiernego myślenia, malejące zwroty
xhigh (nowy)Kodowanie, praca agentyczna — rekomendacja AnthropicWyższe zużycie tokenów
highWiększość zadań wrażliwych na inteligencjęMinimum zalecane do pracy jakościowej
mediumWrażliwe na koszty, umiarkowana złożonośćMoże niedomyśleć złożone problemy
lowSzybkie wyszukiwania, proste zadaniaRyzyko płytkiego rozumowania — 4.7 traktuje „low” dosłownie

Rozwiązanie: Jeśli używasz Claude Pro w interfejsie czatu, upewnij się, że „Adaptive thinking” jest włączone — pozwala 4.7 alokować rozumowanie na podstawie złożoności zadania. W API ustaw wysiłek na xhigh do kodowania i high do reszty. Nie używaj low, chyba że zadanie jest naprawdę proste.

Want the cheat sheet version?

Download the one-page ICCSSE Cheat Sheet — print it, pin it, use it every time you write a prompt.

Free download + weekly AI tips. Unsubscribe anytime.

Jak uzyskać kreatywne wyniki z Claude 4.7?

To sformułowanie pochodzi bezpośrednio z dokumentacji Anthropic. Popycha 4.7 poza dosłowne minimum w zadaniach kreatywnych lub otwartych. Bez tego dosłowna natura 4.7 oznacza wykonanie dokładnie tego, o co poprosiłeś — co w pracy kreatywnej często daje minimum możliwego wyniku.

📋 SZABLON ZADANIA KREATYWNEGO

Zbuduj stronę lądowania dla mojej firmy konsultingowej AI.

Sekcje (w tej kolejności): Hero (nagłówek + podnagłówek + CTA), Pasek logo (6 placeholderów klientów), 3 karty case-study (problem / co zrobiłem / rezultat), Bloki usług, Karuzela testimoniali (3 cytaty), O mnie (bio 180 słów), Zapisz się na newsletter, Stopka.

Styl: edytorski, nagłówki serif, treść sans-serif, hojne białe przestrzenie. Animacje: subtelne przy przewijaniu.

Przejdź poza podstawy. Dopracuj jak dla prawdziwego klienta.

Rozwiązanie: Do każdego zadania kreatywnego, projektowego lub otwartego dodaj na końcu „Przejdź poza podstawy”. To różnica między minimum a najlepszą pracą 4.7.

Jak sprawić, by Claude 4.7 brzmiał mniej robotycznie?

Claude 4.7 jest bardziej bezpośredni, mniej nastawiony na walidację i używa prawie zero emoji w porównaniu do 4.6. Jeśli twój przypadek użycia wymaga ciepła — obsługa klienta, coaching, treści edukacyjne — musisz to wyraźnie zażądać.

💡 Wskazówka Pro

Wklej 2-3 zdania w pożądanym stylu i powiedz Claude, by dopasował rytm. Przykład: „Dopasuj ten ton: 'Hey! Great thinking on that approach. Here's what I'd tweak...'” To skuteczniejsze niż „bądź ciepły”, bo 4.7 lepiej podąża za konkretnymi przykładami niż abstrakcyjnymi instrukcjami.

Przewodnik Anthropic zaleca: „Używaj ciepłego, współpracującego tonu. Potwierdź ramy użytkownika przed odpowiedzią.” Dodaj to do swojego system prompt lub instrukcji Claude Projects.

Try it yourself

Paste any prompt and get a better version in seconds — works for Claude 4.7's literal style.

Open Prompt Optimizer — Free →

Szybka ściąga: Prompty 4.6 → Prompty 4.7

Stary nawyk Poprawka 4.7
"Przejrzyj to"Nazwij każdy wynik + format + ograniczenia
"Podsumuj to"Określ długość, format i strukturę
"Nie używaj żargonu"Pozytywne instrukcje: "Pisz na poziomie 10. klasy"
"Czy możesz pomóc?"Czasowniki działania: "Napisz / Przeanalizuj / Zbuduj"
Domyślny poziom wysiłkuUstaw na xhigh (kodowanie) lub high (reszta)
Oczekiwanie kreatywnych dodatków"Przejdź poza podstawy"
Zakładanie ciepłego tonuWyraźnie ustaw ton + wklej przykłady głosu

Szeroki obraz: To kierunek, w którym zmierzają wszystkie modele

Dosłowne zachowanie Claude 4.7 to nie dziwactwo — to kierunek, w którym idą wszystkie modele AI. OpenAI zaktualizowało specyfikację modelu, podkreślając „rozważ nie tylko dosłowne sformułowanie, ale ukryty zamiar”. Obie firmy zmierzają do siebie z przeciwnych kierunków: Anthropic dodaje precyzję, OpenAI wnioskowanie zamiaru. Ta sama umiejętność — bycie precyzyjnym co do tego, czego chcesz — staje się kluczem po obu stronach.

Jeśli twoje prompty dobrze działają na Claude 4.7, będą działać wszędzie. Framework ICCSSE (Identity, Context, Constraints, Steps, Specifics, Examples) został stworzony dokładnie pod takie dosłowne zachowanie modelu — każdy element zmusza do precyzji co do tego, czego chcesz.

Chcesz ulepszyć swoje prompty już teraz? Wklej dowolny prompt do darmowego Prompt Optimizer i zobacz, jak zostaje przebudowany pod dosłowny styl, jakiego wymaga 4.7. Albo użyj Prompt Grader, by ocenić istniejące prompty pod kątem frameworku ICCSSE.

---

📬 Chcesz więcej takich treści? Publikujemy co tydzień o umiejętnościach i narzędziach AI, które naprawdę mają znaczenie. Zapisz się za darmo →

---

Try it yourself

Not sure if Claude 4.7 is right for your task? Take the 60-second quiz.

Open Model Picker Quiz — Free →

Często zadawane pytania

Czy Claude 4.7 jest gorszy niż 4.6?

Nie. Jest bardziej zdolny — osiągnął 87,6% na SWE-bench vs 80,8% dla 4.6. Ale przestał kompensować nieprecyzyjne prompty. Jeśli wyniki są gorsze, to prompt wymaga aktualizacji, nie model.

Czy muszę przepisać wszystkie swoje prompty?

Nie wszystkie. Proste, precyzyjne prompty nadal działają dobrze. Psują się te nieprecyzyjne — „przejrzyj to”, „podsumuj to”, „pomóż mi z tym”. Każdy prompt, który polegał na zgadywaniu twoich zamiarów przez 4.6, wymaga aktualizacji.

Czym jest ustawienie „adaptive thinking”?

W interfejsie czatu Claude adaptive thinking pozwala modelowi zdecydować, ile rozumowania zastosować na podstawie złożoności zadania. Włącz je dla najlepszych wyników. W API to parametr wysiłku — zacznij od xhigh do kodowania, high do reszty.

Gdzie przeczytam pełny przewodnik Anthropic?

Pełne najlepsze praktyki promptingu Anthropic znajdziesz na platform.claude.com/docs — wyszukaj „Prompting best practices”. Omawia wszystko od podstaw promptingu po użycie narzędzi, konfigurację myślenia i systemy agentyczne.

---

Ujawnienie: Niektóre linki w tym artykule to linki afiliacyjne. Polecamy tylko narzędzia, które osobiście testowaliśmy i regularnie używamy. Zobacz naszą pełną politykę ujawniania.