Claude Opus 4.7 于 2026 年 4 月 16 日发布。48 小时内,Reddit、Hacker News 和 X 上的用户报告了同样的问题:在 Claude 4.6 上有效的提示,突然产生更短、更简洁、有时更差的结果。

模型并没有变笨。它变得字面化了。Anthropic 的 Claude 4.7 提示指南直接说明:“为早期模型编写的提示有时现在会产生意外结果。以前的模型会宽松解释指令或完全跳过部分,而 Opus 4.7 会字面执行指令。”

Claude 4.6 会猜你想要什么。Claude 4.7 只会精确做你说的——不多不少。这个单一变化破坏了你所有模糊的提示。如果你对结构化提示不熟悉,先浏览我们的 prompt engineering for beginners 文章。本指南涵盖最重要的 7 个变化,并提供来自 Anthropic 提示最佳实践和 4.7 特定发布说明的具体修复方法。

关键要点

Claude 4.7 比 4.6 更强大。但它不再补偿粗糙的提示——这正是为什么 Claude 4.7 在日常使用中感觉更差,尽管基准测试有所改善。如果你觉得输出变差了,问题出在你的提示上——不是模型。

Claude 4.7 到底发生了什么变化?

Anthropic 将 4.7 调整为更可预测、指令精确的行为。这对构建 AI 代理和 API 管道的开发者很有价值,因为你需要可预测的输出。代价是模型不太可能主动提供信息或扩展任务,除非你明确要求。

三个主要变化——同一厂商,不同默认设置(如果你在完全选择助手之间选择,我们的 ChatGPT vs Claude 分析涵盖跨模型权衡):

行为 Claude 4.6 (旧版) Claude 4.7 (新版)
指令遵循宽松解释,填补空白字面执行指令
响应长度无论输入如何,大致一致根据感知任务复杂度调整输出大小
工具使用频繁调用工具更多推理,使用更少工具
语气温暖、验证导向、表情符号友好直接、有主见,几乎零表情符号
努力水平各级别差异较小严格遵守努力水平——低努力 = 最小输出

为什么模糊提示在 Claude 4.7 上会失效?

“Review this contract” 以前会给你全面分析。在 4.7 上,它只会给你一个审查——不是风险评估,不是严重性评级,不是重写建议。只是审查。

❌ 旧提示

Review this contract.

✅ 4.7 提示

Review this contract. Flag risks per clause. Rate severity 1-5. Suggest one rewrite per risky clause. Return as a table.

修复方法: 明确列出每个想要的输出。指定顺序。定义边界。如果你想要表格,就说“return as a table”。如果你想要项目符号,就说“use bullet points”。4.7 不会猜你的首选格式。

为什么 Claude 4.7 对“Summarize This”返回 8 段落?

Claude 4.6 无论输入大小,长度大致相同。Claude 4.7 会根据它判断的任务复杂度来校准响应长度。长文档加“summarize”会产生长摘要。如果你想要 5 个项目符号,就要说“5 bullet points”。

❌ 旧提示

Summarize this report.

✅ 4.7 提示

Summarize this report in exactly 5 bullet points. Each bullet under 15 words. First word of each bullet: an action verb.

修复方法: 始终定义格式和上限。“Under 200 words。”“Exactly 5 bullets。”“3 paragraphs maximum。” Anthropic 的指南说:如果你想要简洁输出,请添加“Provide concise, focused responses. Skip non-essential context, and keep examples minimal。”

为什么负面指令在 Claude 4.7 上不起作用?

这是最反直觉的变化。“Don't use jargon”在 4.7 上效果不佳,因为负面指令被字面执行得太彻底——模型关注“不做什么”而不是“做什么”。

❌ 旧提示

Don't use jargon. Don't use buzzwords. Don't sound like a marketer.

✅ 4.7 提示

Write in plain English a 16-year-old could read aloud. Use short, concrete words. Replace "leverage" with "use." Replace "scalable" with "works at any size."

修复方法: Anthropic 的指南直接推荐告诉 Claude 做什么,而不是不做什么。展示期望沟通风格的正面示例比负面指令更有效。

---

📬 觉得这篇文章有价值? 我们每周发布一篇关于 AI 工具和工作流的深度解析。加入收件箱读者 →

---

每个 Claude 4.7 提示该如何开头?

“Can you help me with this email?” 是个问题。4.7 可能会回答“yes”然后等待。行动动词告诉 4.7 输出具体内容。

❌ 旧提示

Can you help me with the email?

✅ 4.7 提示

Write a follow-up email. Goal: book a meeting by Friday. Under 90 words. Tone: confident, casual, specific.

修复方法: 每个提示以动词开头。Write。Analyze。Compare。List。Draft。Build。行动动词消除 4.7 输出的歧义。

Claude 4.7 的努力水平有哪些?你该用哪个?

Claude 4.7 引入了新努力水平:xhigh,位于 highmax 之间。Anthropic 自己的推荐是编码和代理工作用 xhigh,智能敏感任务至少用 high

为什么这很重要:低努力的 Claude 4.7 大致相当于 Claude 4.6 的中等努力。如果你让努力设置默认,你得到的输出相当于 4.6,而你期望的是更好的模型。这解释了大部分“4.7 更差”的抱怨。

努力水平 最适合 注意事项
max最难的推理问题易过度思考,边际收益递减
xhigh (新)编码、代理工作——Anthropic 推荐令牌使用更高
high大多数智能敏感任务高质量工作的最低推荐
medium成本敏感、中等复杂度可能对复杂问题思考不足
low快速查询、简单任务浅层推理风险——4.7 字面执行“low”

修复方法: 如果你在聊天界面使用 Claude Pro,确保“Adaptive thinking”已开启——它让 4.7 根据任务复杂度分配推理。如果你用 API,编码设为 xhigh,其他设为 high。除非任务真的简单,否则不要用 low

Want the cheat sheet version?

Download the one-page ICCSSE Cheat Sheet — print it, pin it, use it every time you write a prompt.

Free download + weekly AI tips. Unsubscribe anytime.

如何从 Claude 4.7 获取创意输出?

这个短语直接来自 Anthropic 的文档。它推动 4.7 在创意或开放任务上超越字面最小值。没有它,4.7 的字面特性意味着它只做你要求的——对于创意工作,通常是最小可行输出。

📋 创意任务模板

Build a landing page for my AI consultancy.

Sections (in this order): Hero (headline + subheadline + CTA), Logo bar (6 client placeholders), 3 case-study cards (problem / what I did / result), Service blocks, Testimonial carousel (3 quotes), About me (180-word bio), Newsletter signup, Footer.

Style: editorial, serif headlines, sans-serif body, generous whitespace. Animations: subtle on scroll.

Go beyond the basics. Polish like it's a real client deliverable.

修复方法: 对于任何创意、设计或开放任务,在结尾添加“Go beyond the basics”。这是 4.7 做最小输出和发挥最佳表现的区别。

如何让 Claude 4.7 听起来不那么机器人?

Claude 4.7 比 4.6 更直接、更少验证导向,几乎不用表情符号。如果你的用例需要温暖——客户支持、教练、教育内容——你需要明确要求。

💡 专业提示

粘贴 2-3 句你想要的语气,并告诉 Claude 匹配节奏。例如:“Match this tone: 'Hey! Great thinking on that approach. Here's what I'd tweak...'” 这比说“be warm”更有效,因为 4.7 更好地遵循具体示例而非抽象指令。

Anthropic 的指南推荐:“使用温暖、协作的语气。在回答前承认用户的框架。” 将此添加到你的 system promptClaude Projects 指令中。

Try it yourself

Paste any prompt and get a better version in seconds — works for Claude 4.7's literal style.

Open Prompt Optimizer — Free →

快速备忘单:4.6 提示 → 4.7 提示

旧习惯 4.7 修复
"Review this"明确每个输出 + 格式 + 约束
"Summarize this"定义长度、格式和结构
"Don't use jargon"正面指令:“Write at a 10th-grade level”
"Can you help me?"行动动词:“Write / Analyze / Build”
默认努力水平设为 xhigh (编码) 或 high (其他)
期待创意额外内容"Go beyond the basics"
假设温暖语气明确设置语气 + 粘贴语气示例

更宏观的视角:这是所有模型的发展方向

Claude 4.7 的字面行为不是怪癖——这是所有 AI 模型的前进方向。OpenAI 更新了他们的模型规范,强调“不仅考虑字面措辞,还要考虑潜在意图。” 两家公司从相反方向趋同:Anthropic 增加精确性,OpenAI 增加意图推断。相同的技能——明确表达你想要什么——正在成为双方的关键。

如果你的提示在 Claude 4.7 上效果好,到处都好用。ICCSSE framework(Identity, Context, Constraints, Steps, Specifics, Examples)正是为这种字面模型行为设计的——每个元素都迫使你明确表达想要什么。

想现在就升级你的提示?将任何提示粘贴到免费 Prompt Optimizer,看看它如何为 4.7 要求的明确字面风格重组。或者用 Prompt Grader 根据 ICCSSE framework 评分你的现有提示。

---

📬 想要更多类似内容? 我们每周发布真正重要的 AI 技能和工具。免费订阅 →

---

Try it yourself

Not sure if Claude 4.7 is right for your task? Take the 60-second quiz.

Open Model Picker Quiz — Free →

常见问题

Claude 4.7 比 4.6 差吗?

不。它更强大——在 SWE-bench 上得分 87.6%,而 4.6 是 80.8%。但它不再补偿模糊提示。如果你的输出感觉变差了,需要更新提示,而不是模型。

我需要重写所有提示吗?

不是全部。简单、具体的提示仍然有效。失效的是模糊的——“review this”、“summarize this”、“help me with this”。任何依赖 4.6 猜测意图的提示都需要更新。

“adaptive thinking”设置是什么?

在 Claude 聊天界面,adaptive thinking 让模型根据任务复杂度决定推理量。开启它以获得最佳结果。在 API 上,这对应努力参数——编码从 xhigh 开始,其他用 high。

哪里能读 Anthropic 的完整指南?

Anthropic 的完整提示最佳实践在 platform.claude.com/docs——搜索“Prompting best practices”。它涵盖从基本提示到工具使用、思考配置和代理系统的一切。

---

披露:本文中有些链接是联盟链接。我们只推荐我们亲自测试并定期使用的工具。查看我们的 完整披露政策