ChatGPT não ficou mais burro. Suas expectativas ficaram mais altas e seus prompts permaneceram os mesmos. O vago one-liner que te impressionou em 2024 agora produz outputs genéricos porque você viu como respostas genuinamente boas de IA se parecem — e a lacuna entre o que você está pedindo e o que você realmente quer se alargou.
Há casos reais onde a qualidade do modelo muda (OpenAI roteia entre variantes de modelos, usuários com rate limit recebem modelos mais leves, e mudanças no system prompt afetam o comportamento). Mas para 90% dos usuários reclamando no Reddit, a solução é um prompt melhor, não um modelo diferente.
Por que Todos Acham que ChatGPT Ficou Pior?
Procure "ChatGPT nerfed" no Reddit e você encontrará milhares de posts. A frustração é real. Mas há um padrão psicológico em jogo: o efeito da novidade desapareceu.
Quando você usou ChatGPT pela primeira vez, tudo que ele produzia te maravilhava. Um poema medíocre parecia mágico porque um computador o escreveu. Um snippet de código básico parecia bruxaria. Seu padrão era "uma máquina consegue fazer isso?"
Agora seu padrão é "uma máquina consegue fazer isso bem o suficiente para substituir o trabalho que eu mesmo faria?" Esse é um padrão muito mais alto, e seus prompts de uma linha não evoluíram para acompanhá-lo.
O modelo não regrediu — suas expectativas avançaram. Um prompt que funcionava em 2024 produz a mesma qualidade que sempre produziu. Você só precisa de mais agora.
Como Um Prompt Ruim Realmente Se Parece?
Aqui está o mesmo pedido, feito de duas maneiras:
Prompt vago: "Escreva um email de marketing para mim."
Prompt estruturado: "Atue como um especialista em email marketing. Escreva um email promocional de 150 palavras para uma extensão Chrome que ajuda a organizar conversas com IA. Público-alvo: profissionais de conhecimento que usam ChatGPT diariamente. Tom: casual e direto, não comercial. Inclua uma linha de assunto. Termine com um claro CTA para instalar da Chrome Web Store."
O primeiro prompt dá ao ChatGPT quase nada para trabalhar. Ele tem que adivinhar seu público, tom, comprimento, produto e objetivo. Ele produzirá algo genérico porque o pedido é genérico. O segundo prompt restringe o output exatamente das maneiras que importam.
Antes de culpar o modelo, adicione três coisas ao seu prompt: quem você quer que a IA seja (papel), para quem o output é (público), e que formato você quer (restrições). Isso sozinho resolve a maioria das respostas "burras".
Quando ChatGPT Realmente Ficou Pior?
Para ser justo, há razões técnicas legítimas para variação de qualidade:
Model routing: OpenAI às vezes roteia requisições para variantes de modelos mais leves durante uso de pico. Sua resposta "GPT-4o" pode realmente vir de um modelo menor e mais rápido nos bastidores.
Mudanças no system prompt: OpenAI regularmente atualiza o system prompt oculto que molda o comportamento do ChatGPT. Essas mudanças podem afetar tom, verbosidade e disposição de ajudar com certas tarefas.
Rate limiting: Usuários de tier gratuito são limitados mais agressivamente. Se suas respostas de repente parecem piores, você pode ter atingido um limite de uso sem ser informado.
Regressão genuína: Isso aconteceu. O desempenho em matemática do GPT-4 declinou mensuravelmente entre março e junho de 2023. OpenAI posteriormente reconheceu e corrigiu alguns desses problemas. Mas esses casos são raros e específicos, não o "tudo ficou pior" genérico que o Reddit sugere.
Como Você Realmente Corrige Outputs Ruins?
A Conclusão
Tente agora: Pegue seu prompt mais recente do ChatGPT que te decepcionou. Adicione um papel, uma restrição de formato e um exemplo do que você quer. Execute novamente. A diferença será óbvia.
Teste você mesmo: Cole qualquer prompt no nosso otimizador de prompts gratuito e veja como o structured prompting realmente parece.