ChatGPT não ficou mais burro. Suas expectativas ficaram mais altas e seus prompts permaneceram os mesmos. O vago one-liner que te impressionou em 2024 agora produz outputs genéricos porque você viu como respostas genuinamente boas de IA se parecem — e a lacuna entre o que você está pedindo e o que você realmente quer se alargou.

Há casos reais onde a qualidade do modelo muda (OpenAI roteia entre variantes de modelos, usuários com rate limit recebem modelos mais leves, e mudanças no system prompt afetam o comportamento). Mas para 90% dos usuários reclamando no Reddit, a solução é um prompt melhor, não um modelo diferente.

Por que Todos Acham que ChatGPT Ficou Pior?

Procure "ChatGPT nerfed" no Reddit e você encontrará milhares de posts. A frustração é real. Mas há um padrão psicológico em jogo: o efeito da novidade desapareceu.

Quando você usou ChatGPT pela primeira vez, tudo que ele produzia te maravilhava. Um poema medíocre parecia mágico porque um computador o escreveu. Um snippet de código básico parecia bruxaria. Seu padrão era "uma máquina consegue fazer isso?"

Agora seu padrão é "uma máquina consegue fazer isso bem o suficiente para substituir o trabalho que eu mesmo faria?" Esse é um padrão muito mais alto, e seus prompts de uma linha não evoluíram para acompanhá-lo.

Ponto-chave

O modelo não regrediu — suas expectativas avançaram. Um prompt que funcionava em 2024 produz a mesma qualidade que sempre produziu. Você só precisa de mais agora.

Como Um Prompt Ruim Realmente Se Parece?

Aqui está o mesmo pedido, feito de duas maneiras:

Prompt vago: "Escreva um email de marketing para mim."

Prompt estruturado: "Atue como um especialista em email marketing. Escreva um email promocional de 150 palavras para uma extensão Chrome que ajuda a organizar conversas com IA. Público-alvo: profissionais de conhecimento que usam ChatGPT diariamente. Tom: casual e direto, não comercial. Inclua uma linha de assunto. Termine com um claro CTA para instalar da Chrome Web Store."

O primeiro prompt dá ao ChatGPT quase nada para trabalhar. Ele tem que adivinhar seu público, tom, comprimento, produto e objetivo. Ele produzirá algo genérico porque o pedido é genérico. O segundo prompt restringe o output exatamente das maneiras que importam.

Dica profissional

Antes de culpar o modelo, adicione três coisas ao seu prompt: quem você quer que a IA seja (papel), para quem o output é (público), e que formato você quer (restrições). Isso sozinho resolve a maioria das respostas "burras".

Quando ChatGPT Realmente Ficou Pior?

Para ser justo, há razões técnicas legítimas para variação de qualidade:

Model routing: OpenAI às vezes roteia requisições para variantes de modelos mais leves durante uso de pico. Sua resposta "GPT-4o" pode realmente vir de um modelo menor e mais rápido nos bastidores.

Mudanças no system prompt: OpenAI regularmente atualiza o system prompt oculto que molda o comportamento do ChatGPT. Essas mudanças podem afetar tom, verbosidade e disposição de ajudar com certas tarefas.

Rate limiting: Usuários de tier gratuito são limitados mais agressivamente. Se suas respostas de repente parecem piores, você pode ter atingido um limite de uso sem ser informado.

Regressão genuína: Isso aconteceu. O desempenho em matemática do GPT-4 declinou mensuravelmente entre março e junho de 2023. OpenAI posteriormente reconheceu e corrigiu alguns desses problemas. Mas esses casos são raros e específicos, não o "tudo ficou pior" genérico que o Reddit sugere.

Como Você Realmente Corrige Outputs Ruins?

1
Adicione um papel
"Atue como um analista de dados sênior" dá ao modelo uma perspectiva. Isso muda escolha de palavras, profundidade e suposições.
2
Especifique o formato de output
"Dê-me uma lista com bullets" ou "Escreva um email de 3 parágrafos" ou "Retorne JSON com esses campos." O modelo segue instruções de formato de forma confiável.
3
Inclua o que NÃO fazer
"Não inclua conselhos genéricos" ou "Não use jargão corporativo" ou "Não adicione um parágrafo de conclusão." Restrições negativas são surpreendentemente poderosas.
4
Dê um exemplo
"Aqui está um exemplo de como um bom output se parece: [cole exemplo]." Um exemplo vale 100 palavras de instrução.

A Conclusão

Tente agora: Pegue seu prompt mais recente do ChatGPT que te decepcionou. Adicione um papel, uma restrição de formato e um exemplo do que você quer. Execute novamente. A diferença será óbvia.

Teste você mesmo: Cole qualquer prompt no nosso otimizador de prompts gratuito e veja como o structured prompting realmente parece.