Claude Opus 4.7은 2026년 4월 16일에 출시되었습니다. 48시간 이내에 Reddit, Hacker News, X에서 사용자들이 같은 문제를 보고했습니다: Claude 4.6에서 작동하던 프롬프트들이 갑자기 더 짧고, 간결하며, 때로는 더 나쁜 결과를 내기 시작했습니다.

모델이 바보가 된 게 아닙니다. 문자 그대로 해석하게 된 것입니다. Anthropic의 Claude 4.7 프롬프팅 가이드에서 직접 이렇게 명시되어 있습니다: "이전 모델을 위해 작성된 프롬프트는 때때로 예상치 못한 결과를 초래할 수 있습니다. 이전 모델들이 지침을 느슨하게 해석하거나 일부를 완전히 생략한 반면, Opus 4.7은 지침을 문자 그대로 따릅니다."

Claude 4.6은 당신이 원하는 것을 추측했습니다. Claude 4.7은 당신이 말한 대로 정확히 실행합니다 — 그 이상도, 그 이하도 아닙니다. 이 단 하나의 변화가 당신이 사용하던 모든 모호한 프롬프트를 망가뜨립니다. 구조화된 프롬프트에 익숙하지 않다면, 먼저 저희의 prompt engineering for beginners 글을 훑어보세요. 이 가이드는 가장 중요한 7가지 변화와 Anthropic의 프롬프팅 모범 사례 및 4.7 전용 릴리스 노트에서 가져온 구체적인 해결책을 다룹니다.

핵심 요점

Claude 4.7은 4.6보다 더 강력합니다. 하지만 부실한 프롬프트를 보상해주지 않게 되었습니다 — 이것이 벤치마크가 향상되었음에도 Claude 4.7이 일상 사용에서 더 나쁘게 느껴지는 이유의 대부분입니다. 출력이 더 나쁘게 느껴진다면, 문제는 프롬프트에 있습니다 — 모델이 아닙니다.

Claude 4.7에서 실제로 바뀐 것은 무엇인가요?

Anthropic은 4.7을 더 예측 가능하고 지침에 정확한 동작으로 조정했습니다. 이는 AI 에이전트와 API 파이프라인을 구축하는 개발자들에게 유용하며, 예측 가능한 출력을 원할 때 가치 있습니다. 대가는 모델이 명시적으로 요청하지 않으면 정보를 자발적으로 제공하거나 작업을 확장할 가능성이 낮아진다는 것입니다.

세 가지 주요 변화 — 같은 벤더, 다른 기본값 (어시스턴트 선택 시 전체 비교를 원한다면, 저희의 ChatGPT vs Claude 분석을 참고하세요):

동작 Claude 4.6 (구) Claude 4.7 (신)
지침 준수느슨하게 해석, 빈틈 채움지침을 문자 그대로 따름
응답 길이입력과 관계없이 대체로 일정인식된 작업 복잡도에 맞춰 출력 크기 조정
도구 사용도구를 자주 호출더 많이 추론하고 도구를 적게 사용
어조따뜻하고 검증 중심, 이모지 친화적직접적이고 의견 중심, 거의 이모지 없음
노력 수준수준 간 차별화 적음노력 수준을 엄격히 준수 — 낮은 노력 = 최소 출력

왜 모호한 프롬프트가 Claude 4.7에서 망가지는가요?

"이 계약서를 검토해줘"라고 하면以前에는 포괄적인 분석을 받았습니다. 4.7에서는 정확히 그것만 — 검토만 합니다. 위험 평가도, 심각도 등급도, 재작성 제안도 아닙니다. 그냥 검토만요.

❌ 구 프롬프트

이 계약서를 검토해줘.

✅ 4.7 프롬프트

이 계약서를 검토해줘. 각 조항별 위험을 표시. 심각도를 1-5로 평가. 위험한 조항당 하나의 재작성 제안. 테이블 형식으로 반환.

해결책: 원하는 모든 출력을 명명하세요. 순서를 명명하세요. 경계를 명명하세요. 테이블을 원하면 "테이블 형식으로 반환"이라고 하세요. 글머리 기호를 원하면 "글머리 기호 사용"이라고 하세요. 4.7은 선호 형식을 추측하지 않습니다.

왜 Claude 4.7이 '요약해줘'에 8단락을 반환하나요?

Claude 4.6은 입력 크기와 관계없이 대체로 같은 길이를 주었습니다. Claude 4.7은 작업 복잡도로 응답 길이를 조정합니다. 긴 문서에 "요약"이라고 하면 긴 요약을 만듭니다. 5개의 글머리 기호를 원하면 "5개의 글머리 기호"라고 해야 합니다.

❌ 구 프롬프트

이 보고서를 요약해줘.

✅ 4.7 프롬프트

이 보고서를 정확히 5개의 글머리 기호로 요약해줘. 각 기호는 15단어 미만. 각 기호의 첫 단어: 동사.

해결책: 항상 형식과 상한을 정의하세요. "200단어 미만." "정확히 5개 기호." "최대 3단락." Anthropic의 가이드 자체가 말하길: 간결한 출력을 원하면 "간결하고 집중된 응답을 제공하세요. 필수적이지 않은 맥락은 생략하고 예시는 최소화하세요."라고 추가하세요.

왜 부정적 지침이 Claude 4.7에서 작동하지 않나요?

가장 직관에 반하는 변화입니다. "전문 용어 사용하지 마"는 4.7에서 잘 작동하지 않습니다. 왜냐하면 부정적 지침이 너무 문자 그대로 따르기 때문입니다 — 모델이 하지 말아야 할 것에 집중하는 대신 해야 할 것에 집중합니다.

❌ 구 프롬프트

전문 용어 사용하지 마. 유행어 사용하지 마. 마케터처럼 들리지 마.

✅ 4.7 프롬프트

16세 아이가 소리 내 읽을 수 있는 평이한 영어로 작성. 짧고 구체적인 단어 사용. "leverage"를 "use"로 대체. "scalable"을 "works at any size"로 대체.

해결책: Anthropic의 가이드가 직접 추천하듯, 하지 말라고 하는 대신 해야 할 것을 말하세요. 원하는 커뮤니케이션 스타일을 보여주는 긍정적 예시가 부정적 지침보다 더 효과적입니다.

---

📬 이 내용에서 가치를 얻고 계신가요? 우리는 매주 AI 도구와 워크플로에 대한 심층 분석을 게시합니다. 인박스에서 받아보는 독자에 합류하세요 →

---

모든 Claude 4.7 프롬프트를 어떻게 시작해야 할까요?

"이 이메일 도와줄 수 있어?"는 질문입니다. 4.7은 "네"라고 답하고 기다릴 수 있습니다. 동사는 4.7에게 구체적인 것을 생성하라고 지시합니다.

❌ 구 프롬프트

이메일 도와줄 수 있어?

✅ 4.7 프롬프트

후속 이메일을 작성. 목표: 금요일까지 미팅 예약. 90단어 미만. 어조: 자신감 있고 캐주얼하며 구체적.

해결책: 모든 프롬프트를 동사로 시작하세요. Write. Analyze. Compare. List. Draft. Build. 동사는 4.7이 생성해야 할 것에 대한 모호성을 제거합니다.

Claude 4.7의 노력 수준은 무엇이며 어떤 것을 사용해야 할까요?

Claude 4.7은 새로운 노력 수준 xhigh를 도입했습니다. highmax 사이에 위치합니다. Anthropic의 자체 추천은 코딩과 에이전트 작업에 xhigh, 지능 민감 작업에는 최소 high입니다.

이것이 중요한 이유: 낮은 노력 Claude 4.7은 대략 중간 노력 Claude 4.6과 동등합니다. 노력 설정을 기본값으로 두었다면, 더 나아질 모델에서 4.6 수준 출력을 받고 있었던 겁니다. 이것이 "4.7이 더 나쁘다"는 불만의 대부분을 설명합니다.

노력 수준 최적 용도 주의점
max가장 어려운 추론 문제과도한 사고 경향, 수익 체감
xhigh (신규)코딩, 에이전트 작업 — Anthropic 추천토큰 사용량 증가
high대부분의 지능 민감 작업품질 작업을 위한 최소 추천
medium비용 민감, 중간 복잡도복잡한 문제에서 과소 사고 가능
low빠른 조회, 간단 작업얕은 추론 위험 — 4.7이 "low"를 문자 그대로 따름

해결책: 채팅 인터페이스에서 Claude Pro를 사용 중이라면 "Adaptive thinking"이 켜져 있는지 확인하세요 — 작업 복잡도에 따라 4.7이 추론을 할당할 수 있게 합니다. API를 사용 중이라면 코딩에는 xhigh, 나머지에는 high으로 설정하세요. 작업이 정말 간단하지 않으면 low를 사용하지 마세요.

Want the cheat sheet version?

Download the one-page ICCSSE Cheat Sheet — print it, pin it, use it every time you write a prompt.

Free download + weekly AI tips. Unsubscribe anytime.

Claude 4.7에서 창의적인 출력을 어떻게 얻나요?

이 문구는 Anthropic의 공식 문서에서 직접 나온 것입니다. 창의적이거나 열린 작업에서 4.7을 문자 그대로 최소 이상으로 밀어붙입니다. 없으면 4.7의 문자 그대로 성격 때문에 정확히 요청한 대로만 합니다 — 창의적 작업에서 이는 종종 최소 실행 가능 출력입니다.

📋 창의적 작업 템플릿

내 AI 컨설팅을 위한 랜딩 페이지를 제작.

섹션 (이 순서로): Hero (헤드라인 + 서브헤드라인 + CTA), 로고 바 (6개 클라이언트 플레이스홀더), 3개 케이스 스터디 카드 (문제 / 내가 한 일 / 결과), 서비스 블록, 추천 캐러셀 (3개 인용), About me (180단어 바이오), 뉴스레터 가입, 푸터.

스타일: 편집적, 세리프 헤드라인, 산세리프 본문, 넉넉한 여백. 애니메이션: 스크롤 시 미묘하게.

기본을 넘어. 실제 클라이언트 납품물처럼 세련되게.

해결책: 모든 창의적, 디자인, 열린 작업에 끝에 "기본을 넘어"를 추가하세요. 4.7이 최소만 하는 것과 최선을 다하는 것의 차이입니다.

Claude 4.7을 덜 로봇처럼 어떻게 들리게 할까요?

Claude 4.7은 4.6에 비해 더 직접적이고, 검증 중심이 덜하며, 거의 이모지를 사용하지 않습니다. 고객 지원, 코칭, 교육 콘텐츠처럼 따뜻함이 필요한 경우라면 명시적으로 요청해야 합니다.

💡 프로 팁

원하는 목소리로 2-3문장을 붙여넣고 Claude에게 리듬을 맞추라고 하세요. 예: "이 어조를 맞춰: 'Hey! Great thinking on that approach. Here's what I'd tweak...'" "따뜻하게"라고 하는 것보다 효과적입니다. 왜냐하면 4.7이 추상 지침보다 구체적 예시를 더 잘 따르기 때문입니다.

Anthropic의 가이드 추천: "따뜻하고 협력적인 어조를 사용하세요. 답변 전에 사용자의 프레임을 인정하세요." 이를 system promptClaude Projects 지침에 추가하세요.

Try it yourself

Paste any prompt and get a better version in seconds — works for Claude 4.7's literal style.

Open Prompt Optimizer — Free →

빠른 치트시트: 4.6 프롬프트 → 4.7 프롬프트

구 습관 4.7 해결책
"이걸 검토해"모든 출력 + 형식 + 제약 명명
"이걸 요약해"길이, 형식, 구조 정의
"전문 용어 사용하지 마"긍정 지침: "10학년 수준으로 작성"
"도와줄 수 있어?"동사: "Write / Analyze / Build"
기본 노력 수준xhigh (코딩) 또는 high (나머지)로 설정
창의적 추가 기대"기본을 넘어"
따뜻한 어조 가정어조 명시 + 목소리 예시 붙여넣기

큰 그림: 이것이 모든 모델이 향하는 방향입니다

Claude 4.7의 문자 그대로 동작은 결함이 아닙니다 — 모든 AI 모델이 향하는 방향입니다. OpenAI는 모델 사양을 "단순한 단어가 아닌 근본 의도를 고려"하도록 업데이트했습니다. 두 회사가 반대 방향에서 수렴 중입니다: Anthropic은 정밀도를 더하고, OpenAI는 의도 추론을 더합니다. 같은 기술 — 원하는 것을 명시적으로 말하는 것 — 이 양쪽에서 모두 열쇠가 됩니다.

당신의 프롬프트가 Claude 4.7에서 잘 작동한다면 어디서나 잘 작동할 겁니다. ICCSSE framework (Identity, Context, Constraints, Steps, Specifics, Examples)는 바로 이런 문자 그대로 모델 동작을 위해 만들어졌습니다 — 모든 요소가 원하는 것을 명시적으로 하도록 강제합니다.

지금 프롬프트를 업그레이드하고 싶으신가요? 무료 Prompt Optimizer에 아무 프롬프트나 붙여넣기하고 4.7이 요구하는 명시적이고 문자 그대로 스타일로 재구성된 버전을 보세요. 아니면 기존 프롬프트를 ICCSSE 프레임워크로 점수 매기는 Prompt Grader를 사용하세요.

---

📬 이런 내용 더 원하시나요? 우리는 실제로 중요한 AI 기술과 도구에 대해 매주 게시합니다. 무료 구독 →

---

Try it yourself

Not sure if Claude 4.7 is right for your task? Take the 60-second quiz.

Open Model Picker Quiz — Free →

자주 묻는 질문

Claude 4.7이 4.6보다 나쁜가요?

아니요. 더 유능합니다 — SWE-bench에서 87.6%를 기록한 반면 4.6은 80.8%였습니다. 하지만 모호한 프롬프트를 보상해주지 않게 되었습니다. 출력이 더 나쁘게 느껴진다면 프롬프트를 업데이트해야지 모델이 아닙니다.

모든 프롬프트를 다시 작성해야 하나요?

모두는 아닙니다. 간단하고 구체적인 프롬프트는 여전히 잘 작동합니다. 망가지는 것은 모호한 것들 — "이걸 검토해," "이걸 요약해," "이걸 도와줘." 4.6이 당신의 의도를 추측에 의존했던 프롬프트들은 업데이트가 필요합니다.

"adaptive thinking" 설정이란 무엇인가요?

Claude 채팅 인터페이스에서 adaptive thinking은 작업 복잡도에 따라 모델이 적용할 추론 양을 결정하게 합니다. 최상 결과를 위해 켜세요. API에서는 노력 매개변수에 해당 — 코딩에는 xhigh, 나머지에는 high부터 시작하세요.

Anthropic의 전체 가이드는 어디서 볼 수 있나요?

Anthropic 프롬프팅 모범 사례 전체는 platform.claude.com/docs에 있습니다 — "Prompting best practices"를 검색하세요. 기본 프롬프팅부터 도구 사용, 사고 구성, 에이전트 시스템까지 다룹니다.

---

공개: 이 글의 일부 링크는 제휴 링크입니다. 우리는 정기적으로 테스트하고 사용하는 도구만 추천합니다. 저희의 전체 공개 정책을 확인하세요.