Claude Opus 4.7 se lanzó el 16 de abril de 2026. En menos de 48 horas, usuarios en Reddit, Hacker News y X reportaron lo mismo: prompts que funcionaban en Claude 4.6 de repente producían resultados más cortos, concisos, a veces peores.

El modelo no se volvió más tonto. Se volvió literal. La guía de prompting de Anthropic para Claude 4.7 lo dice directamente: "Prompts escritos para modelos anteriores pueden ahora producir resultados inesperados. Donde modelos previos interpretaban instrucciones de manera flexible o saltaban partes por completo, Opus 4.7 toma las instrucciones al pie de la letra."

Claude 4.6 adivinaba lo que querías decir. Claude 4.7 hace exactamente lo que dices —nada más, nada menos. Ese único cambio rompe todos los prompts vagos que has estado usando. Si eres nuevo en prompts estructurados, lee primero nuestro artículo prompt engineering for beginners. Esta guía cubre los 7 cambios más importantes y te da soluciones concretas basadas en las mejores prácticas de prompting de Anthropic y las notas de lanzamiento específicas de 4.7.

Idea clave

Claude 4.7 es más potente que 4.6. Pero dejó de compensar prompts descuidados —que es gran parte de por qué Claude 4.7 se siente peor en el uso diario aunque los benchmarks mejoraron. Si tu salida se siente peor, el problema es tu prompt —no el modelo.

¿Qué cambió realmente en Claude 4.7?

Anthropic ajustó 4.7 para un comportamiento más predecible y preciso en instrucciones. Esto es valioso para desarrolladores que construyen agentes de IA y pipelines de API donde quieres salidas predecibles. El tradeoff es que el modelo es menos propenso a ofrecer información extra o expandir una tarea a menos que lo pidas explícitamente.

Tres cambios mayores —mismo proveedor, defaults diferentes (cuando eliges entre asistentes por completo, nuestro ChatGPT vs Claude desglosa los tradeoffs entre modelos):

Comportamiento Claude 4.6 (Antiguo) Claude 4.7 (Nuevo)
Seguimiento de instruccionesInterpretaba de manera flexible, llenaba huecosToma las instrucciones al pie de la letra
Longitud de respuestaAproximadamente consistente sin importar la entradaAdapta la salida a la complejidad percibida de la tarea
Uso de herramientasLlamaba herramientas frecuentementeRazona más, usa menos herramientas
TonoCálido, validante, amigable con emojisDirecto, con opiniones, casi cero emojis
Niveles de esfuerzoMenos diferenciación entre nivelesRespeta estrictamente los niveles de esfuerzo —bajo esfuerzo = salida mínima

¿Por qué los prompts vagos fallan en Claude 4.7?

"Review this contract" antes te daba un análisis completo. En 4.7, te da exactamente eso —una revisión. No una evaluación de riesgos, no calificaciones de severidad, no sugerencias de reescritura. Solo una revisión.

❌ PROMPT ANTIGUO

Review this contract.

✅ PROMPT 4.7

Review this contract. Flag risks per clause. Rate severity 1-5. Suggest one rewrite per risky clause. Return as a table.

La solución: Nombra cada salida que quieres. Nombra el orden. Nombra los límites. Si quieres una tabla, di "return as a table." Si quieres viñetas, di "use bullet points." 4.7 no adivinará tu formato preferido.

¿Por qué Claude 4.7 devuelve 8 párrafos para 'Summarize This'?

Claude 4.6 daba aproximadamente la misma longitud sin importar el tamaño de la entrada. Claude 4.7 calibra la longitud de la respuesta según cuán compleja juzga la tarea. Un documento largo con "summarize" produce un resumen largo. Si quieres 5 viñetas, debes decir "5 bullet points."

❌ PROMPT ANTIGUO

Summarize this report.

✅ PROMPT 4.7

Summarize this report in exactly 5 bullet points. Each bullet under 15 words. First word of each bullet: an action verb.

La solución: Siempre define el formato y el límite. "Under 200 words." "Exactly 5 bullets." "3 paragraphs maximum." La propia guía de Anthropic dice: si quieres salida concisa, agrega "Provide concise, focused responses. Skip non-essential context, and keep examples minimal."

¿Por qué las instrucciones negativas no funcionan en Claude 4.7?

Este es el cambio más contraintuitivo. "Don't use jargon" no funciona bien en 4.7 porque las instrucciones negativas se siguen demasiado literalmente —el modelo se enfoca en lo que NO hacer en lugar de lo que SÍ hacer.

❌ PROMPT ANTIGUO

Don't use jargon. Don't use buzzwords. Don't sound like a marketer.

✅ PROMPT 4.7

Write in plain English a 16-year-old could read aloud. Use short, concrete words. Replace "leverage" with "use." Replace "scalable" with "works at any size."

La solución: La guía de Anthropic recomienda directamente decirle a Claude qué hacer en lugar de qué no hacer. Ejemplos positivos que muestren el estilo de comunicación deseado son más efectivos que instrucciones negativas.

---

📬 ¿Estás sacando valor de esto? Publicamos un análisis profundo por semana sobre herramientas y flujos de trabajo de IA. Únete a los lectores que lo reciben en su bandeja →

---

¿Cómo empezar cada prompt de Claude 4.7?

"Can you help me with this email?" es una pregunta. 4.7 podría responder "yes" y esperar. Los verbos de acción le dicen a 4.7 que entregue algo específico.

❌ PROMPT ANTIGUO

Can you help me with the email?

✅ PROMPT 4.7

Write a follow-up email. Goal: book a meeting by Friday. Under 90 words. Tone: confident, casual, specific.

La solución: Empieza cada prompt con un verbo. Write. Analyze. Compare. List. Draft. Build. Los verbos de acción eliminan la ambigüedad sobre lo que 4.7 debe producir.

¿Cuáles son los niveles de esfuerzo de Claude 4.7 y cuál deberías usar?

Claude 4.7 introdujo un nuevo nivel de esfuerzo: xhigh, entre high y max. La propia recomendación de Anthropic es xhigh para codificación y trabajo agentico, mínimo high para tareas sensibles a la inteligencia.

Aquí está por qué importa: el Claude 4.7 de bajo esfuerzo es aproximadamente equivalente al de esfuerzo medio en Claude 4.6. Si dejaste la configuración de esfuerzo en default, estabas obteniendo salida equivalente a 4.6 de un modelo que esperabas fuera mejor. Eso explica la mayoría de las quejas de "4.7 es peor".

Nivel de esfuerzo Ideal para Cuidado con
maxProblemas de razonamiento más difícilesPropenso a sobrepensar, retornos decrecientes
xhigh (nuevo)Codificación, trabajo agentico —recomendación de AnthropicMayor uso de tokens
highLa mayoría de tareas sensibles a la inteligenciaMínimo recomendado para trabajo de calidad
mediumSensible a costos, complejidad moderadaPuede subpensar problemas complejos
lowBúsquedas rápidas, tareas simplesRiesgo de razonamiento superficial —4.7 toma "low" literalmente

La solución: Si usas Claude Pro en la interfaz de chat, asegúrate de que "Adaptive thinking" esté activado —le permite a 4.7 asignar razonamiento según la complejidad de la tarea. Si estás en la API, configura el esfuerzo en xhigh para codificación y high para todo lo demás. No uses low a menos que la tarea sea realmente simple.

Want the cheat sheet version?

Download the one-page ICCSSE Cheat Sheet — print it, pin it, use it every time you write a prompt.

Free download + weekly AI tips. Unsubscribe anytime.

¿Cómo obtener salida creativa de Claude 4.7?

Esta frase viene directamente de la documentación de Anthropic. Empuja a 4.7 más allá del mínimo literal en tareas creativas o abiertas. Sin ella, la naturaleza literal de 4.7 significa que hace exactamente lo que pediste —lo que para trabajo creativo a menudo significa la salida mínima viable.

📋 PLANTILLA PARA TAREA CREATIVA

Build a landing page for my AI consultancy.

Sections (in this order): Hero (headline + subheadline + CTA), Logo bar (6 client placeholders), 3 case-study cards (problem / what I did / result), Service blocks, Testimonial carousel (3 quotes), About me (180-word bio), Newsletter signup, Footer.

Style: editorial, serif headlines, sans-serif body, generous whitespace. Animations: subtle on scroll.

Go beyond the basics. Polish like it's a real client deliverable.

La solución: Para cualquier tarea creativa, de diseño o abierta, agrega "Go beyond the basics" al final. Es la diferencia entre que 4.7 haga lo mínimo y que haga su mejor trabajo.

¿Cómo hacer que Claude 4.7 suene menos robótico?

Claude 4.7 es más directo, menos validante y usa casi cero emojis comparado con 4.6. Si tu caso de uso necesita calidez —soporte al cliente, coaching, contenido educativo— debes pedirlo explícitamente.

💡 Consejo Pro

Pega 2-3 oraciones en el tono que quieres y dile a Claude que coincida el ritmo. Ejemplo: "Match this tone: 'Hey! Great thinking on that approach. Here's what I'd tweak...'" Esto es más efectivo que decir "be warm" porque 4.7 sigue mejor ejemplos concretos que instrucciones abstractas.

La guía de Anthropic recomienda: "Use a warm, collaborative tone. Acknowledge the user's framing before answering." Agrega esto a tu system prompt o instrucciones de Claude Projects.

Try it yourself

Paste any prompt and get a better version in seconds — works for Claude 4.7's literal style.

Open Prompt Optimizer — Free →

Hoja de trucos rápida: Prompts 4.6 → Prompts 4.7

Hábito antiguo Solución 4.7
"Review this"Nombra cada salida + formato + restricciones
"Summarize this"Define longitud, formato y estructura
"Don't use jargon"Instrucciones positivas: "Write at a 10th-grade level"
"Can you help me?"Verbos de acción: "Write / Analyze / Build"
Nivel de esfuerzo por defaultConfigura en xhigh (codificación) o high (todo lo demás)
Esperando extras creativos"Go beyond the basics"
Asumiendo tono cálidoConfigura tono explícitamente + pega ejemplos de voz

El panorama general: Esto es hacia donde van todos los modelos

El comportamiento literal de Claude 4.7 no es una rareza —es la dirección hacia la que van todos los modelos de IA. OpenAI actualizó su spec de modelo para enfatizar "consider not just the literal wording but the underlying intent." Ambas compañías convergen desde direcciones opuestas: Anthropic agregando precisión, OpenAI agregando inferencia de intención. La misma habilidad —ser explícito sobre lo que quieres— se está convirtiendo en la clave en ambos lados.

Si tus prompts funcionan bien en Claude 4.7, funcionarán bien en todas partes. El ICCSSE framework (Identity, Context, Constraints, Steps, Specifics, Examples) fue construido exactamente para este tipo de comportamiento literal —cada elemento te obliga a ser explícito sobre lo que quieres.

¿Quieres mejorar tus prompts ahora mismo? Pega cualquier prompt en el gratuito Prompt Optimizer y ve cómo se reestructura para el estilo explícito y literal que exige 4.7. O usa el Prompt Grader para puntuar tus prompts existentes contra el framework ICCSSE.

---

📬 ¿Quieres más como esto? Publicamos semanalmente sobre las habilidades y herramientas de IA que realmente importan. Suscríbete gratis →

---

Try it yourself

Not sure if Claude 4.7 is right for your task? Take the 60-second quiz.

Open Model Picker Quiz — Free →

Preguntas frecuentes

¿Es Claude 4.7 peor que 4.6?

No. Es más capaz —obtuvo 87.6% en SWE-bench vs 80.8% para 4.6. Pero dejó de compensar prompts vagos. Si tu salida se siente peor, el prompt necesita actualización, no el modelo.

¿Necesito reescribir todos mis prompts?

No todos. Los prompts simples y específicos aún funcionan bien. Los que fallan son los vagos —"review this," "summarize this," "help me with this." Cualquier prompt que dependía de que 4.6 adivinara tu intención necesita actualización.

¿Qué es la configuración de "adaptive thinking"?

En la interfaz de chat de Claude, adaptive thinking permite que el modelo decida cuánto razonamiento aplicar según la complejidad de la tarea. Actívala para mejores resultados. En la API, esto se mapea al parámetro de esfuerzo —empieza con xhigh para codificación, high para todo lo demás.

¿Dónde puedo leer la guía completa de Anthropic?

Las mejores prácticas completas de prompting de Anthropic están en platform.claude.com/docs —busca "Prompting best practices." Cubre desde prompting básico hasta uso de herramientas, configuración de pensamiento y sistemas agenticos.

---

Divulgación: Algunos enlaces en este artículo son enlaces de afiliados. Solo recomendamos herramientas que hemos probado personalmente y usamos regularmente. Ve nuestra política de divulgación completa.