ChatGPTは馬鹿になっていません。あなたの期待が高くなって、プロンプトは同じままなのです。2024年のあなたを感動させた曖昧な1行が今は退屈な出力を生成するのは、本当に優れたAIの応答がどんなものかを見てしまったからです。つまり、あなたが求めているものと実際に欲しいものとのギャップが広がっています。
モデルの品質が実際に変わる本当のケースもあります。(OpenAIはモデルバリアント間でルーティングし、レート制限されたユーザーはより軽いモデルを取得し、システムプロンプトの変更は動作に影響を与えます。)しかし、Redditで文句を言っている90%のユーザーにとって、修正は異なるモデルではなく、より良いプロンプトです。
なぜ皆がChatGPTが悪くなったと思うのか?
Redditで「ChatGPT弱体化」を検索すれば、何千もの投稿が見つかります。フラストレーションは本物です。しかし、心理的なパターンが作用しています:新しさの効果が薄れた。
ChatGPTを初めて使ったとき、それが生成したすべてがあなたを驚かせました。普通の詩がコンピュータが書いたので魔法のように感じられました。基本的なコードスニペットが魔法のように感じられました。あなたの基準は「機械がこれを行うことができるのか?」でした。
今、あなたの基準は「機械が自分で行う仕事を置き換えるのに十分なほどうまくこれを行うことができるのか?」です。それははるかに高い基準であり、あなたの1行のプロンプトはそれに合わせて進化していません。
モデルは退化していません。あなたの期待が進化しました。2024年に機能していたプロンプトは常に同じ品質を生成します。今はもっと必要なだけです。
悪いプロンプトは実際どのように見えるのか?
同じリクエストを2つの方法で尋ねた場合:
曖昧なプロンプト:「マーケティングメールを書いて。」
構造化されたプロンプト:「メールマーケティング専門家として振る舞ってください。AI会話を整理するのに役立つChrome拡張機能の販売促進メールを150語で書いてください。ターゲットオーディエンス:ChatGPTを毎日使用ナレッジワーカー。トーン:カジュアルで直接的、営業的ではない。件名を含めてください。Chrome Webストアからインストールする明確なCTAで終わってください。」
最初のプロンプトはChatGPTにほとんど何も与えていません。オーディエンス、トーン、長さ、製品、目標を推測する必要があります。リクエストがジェネリックなので、ジェネリックな何かを生成します。2番目のプロンプトは重要な方法で正確に出力を制限します。
モデルを責める前に、プロンプトに3つのものを追加してください:AIがなってほしい人(ロール)、出力の対象者(オーディエンス)、必要な形式(制約)。これだけでほとんどの「馬鹿な」応答が修正されます。
ChatGPTは実際に悪くなったのか?
公平に言うと、品質の変動に対する正当な技術的理由があります:
モデルルーティング: OpenAIはピーク使用時にリクエストをより軽いモデルバリアントにルーティングすることがあります。あなたの「GPT-4o」応答は実際には舞台裏の小さく、より速いモデルから来ているかもしれません。
システムプロンプトの変更: OpenAIはChatGPTの動作を形作る隠されたシステムプロンプトを定期的に更新します。これらの変更はトーン、冗長性、特定のタスクを支援する意思に影響を与える可能性があります。
レート制限:無料層ユーザーがより積極的にスロットルされます。応答が突然悪く感じられる場合、通知なしに使用上限に達した可能性があります。
本当の退化:それは起こりました。GPT-4の数学パフォーマンスは2023年3月から6月の間に測定可能に低下しました。OpenAIは後でこれらの問題のいくつかを認め、修正しました。しかし、これらのケースはまれで具体的であり、Redditが示唆する全体的な「すべてが悪い」ではありません。
悪い出力を実際に修正するにはどうすればよいですか?
まとめ
今すぐ試してください:あなたの最近のChatGPTプロンプトで失望したものを取ります。ロール、形式制約、および必要なもののの1つの例を追加します。もう一度実行します。違いは明白です。
自分で試してください:任意のプロンプトを当社の無料プロンプト最適化ツールに貼り付けて、構造化されたプロンプティングが実際にどのように見えるかを確認してください。