ChatGPT nie stał się głupszy. Twoje oczekiwania wzrosły, a twoje prompty pozostały takie same. Niejasna jednolinijka, która zachwycała cię w 2024 roku, teraz generuje ogólnicowe wyniki, ponieważ widziałeś, jak wyglądają naprawdę dobre odpowiedzi AI — i przepaść między tym, o co prosisz, a tym, czego naprawdę chcesz, się powiększyła.
Zdarzają się rzeczywiste przypadki, gdy zmienia się jakość modelu (OpenAI routuje między wariantami modeli, użytkownicy z ograniczoną szybkością otrzymują lżejsze modele, a zmiany systemu promptu wpływają na zachowanie). Ale dla 90% użytkowników narzekających na Reddicie rozwiązaniem jest lepszy prompt, a nie inny model.
Dlaczego wszyscy myślą, że ChatGPT się pogorszył?
Wyszukaj "ChatGPT nerfed" na Reddicie i znajdziesz tysiące postów. Frustracja jest rzeczywista. Ale w grę wchodzi pewien schemat psychologiczny: efekt nowości się skończył.
Kiedy po raz pierwszy użyłeś ChatGPT, wszystko, co generował, cię zachwycało. Przeciętny wiersz wydawał się magiczny, ponieważ napisała go maszyna. Podstawowy fragment kodu wydawał się czarodziejstwem. Twoim standardem było „czy maszyna w ogóle potrafi to zrobić?"
Teraz twoim standardem jest „czy maszyna potrafi to zrobić wystarczająco dobrze, żeby zastąpić pracę, którą sam bym wykonał?" To znacznie wyższy standard, a twoje jednolinijkowe prompty nie ewoluowały, aby mu dorównać.
Model się nie pogorszył — twoje oczekiwania zaawansowały. Prompt, który działał w 2024 roku, produkuje tę samą jakość, co zawsze. Po prostu potrzebujesz więcej.
Jak wygląda naprawdę zły prompt?
Oto ta sama prośba zadana na dwa sposoby:
Niejasny prompt: "Napisz mi email marketingowy."
Strukturyzowany prompt: "Pełnij rolę specjalisty ds. email marketingu. Napisz promocyjny email o długości 150 słów dla rozszerzenia Chrome, które pomaga organizować rozmowy AI. Grupa docelowa: pracownicy zajęcia wiedzy, którzy codziennie używają ChatGPT. Ton: luźny i bezpośredni, nie sprzedażowy. Dołącz wiersz tematu. Zakończ wyraźnym CTA do instalacji ze Sklepu Internetowego Chrome."
Pierwszy prompt daje ChatGPT prawie nic do pracy. Musi zgadywać twoją widownię, ton, długość, produkt i cel. Będzie generować coś ogólniczego, ponieważ prośba jest ogólnicowa. Drugi prompt ogranicza wynik dokładnie w sposób, który ma znaczenie.
Zanim winisz model, dodaj trzy rzeczy do swojego prompta: kim chcesz, aby była AI (rola), dla kogo jest output (widownia) i w jakim formacie go chcesz (ograniczenia). To samo naprawia większość „głupich" odpowiedzi.
Kiedy ChatGPT naprawdę się pogorszył?
Aby być sprawiedliwym, istnieją uzasadnione techniczne przyczyny zmienności jakości:
Routing modelu: OpenAI czasami kieruje żądania do lżejszych wariantów modeli podczas szczytu użytkowania. Twoja odpowiedź "GPT-4o" może faktycznie pochodzić z mniejszego, szybszego modelu w tle.
Zmiany systemu promptu: OpenAI regularnie aktualizuje ukryty system prompt, który kształtuje zachowanie ChatGPT. Te zmiany mogą wpływać na ton, gadatliwość i gotowość do pomocy w określonych zadaniach.
Ograniczenie szybkości: Użytkownicy warstwy bezpłatnej są bardziej agresywnie limitowani. Jeśli twoje odpowiedzi nagle wydają się gorsze, możliwe, że osiągnąłeś limit użycia bez powiadomienia.
Rzeczywisty regres: Zdarzało się. Wydajność matematyczna GPT-4 mierzalnie spadła między marcem a czerwcem 2023 roku. OpenAI później uznała i naprawiła niektóre z tych problemów. Ale te przypadki są rzadkie i specyficzne, a nie powszechny „wszystko jest gorsze", który sugeruje Reddit.
Jak naprawić złe wyniki?
Podsumowanie
Spróbuj teraz: Weź swój ostatni prompt ChatGPT, który cię rozczarował. Dodaj rolę, ograniczenie formatu i jeden przykład tego, czego chcesz. Uruchom ponownie. Różnica będzie oczywista.
Spróbuj sam: Wklej dowolny prompt do naszego darmowego optymalizatora promptów i zobacz, jak naprawdę wygląda strukturyzowany prompt.