Los agentes de IA se ejecutan en tu servidor, acceden a tus herramientas, leen tus datos y ejecutan comandos en tu nombre. Cuando funcionan, son potentes. Cuando se ven comprometidos, tienen las llaves de todo. El panorama de seguridad de los agentes de IA en 2026 es preocupante — habilidades maliciosas, servidores expuestos y un CVE crítico ya han afectado a cientos de miles de usuarios.

Esta guía cubre los riesgos reales, lo que ha pasado hasta ahora y cómo protegerte ya sea que estés ejecutando Hermes Agent, OpenClaw o cualquier framework de IA autoalojado.

Lección clave

El mayor riesgo no es el agente en sí — son las habilidades/plugins que instalas y la infraestructura en la que lo ejecutas. Audita cada habilidad de terceros, no expongas puertos a internet sin autenticación y nunca des a los agentes acceso a sistemas de producción sin revisión.

¿Qué incidentes de seguridad ya han ocurrido?

Tres eventos significativos definen el panorama actual de amenazas:

La campaña de habilidades maliciosas de OpenClaw: Una auditoría de Koi Security de 2,857 habilidades de ClawHub encontró 341 entradas maliciosas — 335 vinculadas a una sola campaña coordinada. Estas habilidades realizaron extracción de datos e inyección de prompts sin el conocimiento de los usuarios. El gobierno chino prohibió OpenClaw en computadoras de empresas estatales en marzo de 2026.

CVE-2026-25253: Una vulnerabilidad crítica en OpenClaw con una puntuación CVSS de 8.8 (alta severidad). SecurityScorecard reportó decenas de miles de instancias de OpenClaw expuestas públicamente — servidores ejecutando el framework del agente con puertos abiertos accesibles desde internet.

Restricciones de uso de Anthropic: Anthropic cambió la forma en que los agentes de terceros pueden autenticarse con suscripciones de Claude, creando incertidumbre para cualquiera que ejecute Claude a través de frameworks de agentes. Esto no es un incidente de seguridad en sí, pero alteró el modelo operativo en el que muchos usuarios de agentes dependían.

¿Cómo maneja Hermes Agent la seguridad?

Hermes adopta un enfoque más conservador que OpenClaw, con varias funciones de seguridad integradas en la arquitectura:

Función de seguridad Hermes Agent OpenClaw
Endurecimiento de contenedoresSí — root de solo lectura, capacidades eliminadasOpcional, no predeterminado
Aislamiento de namespacesLimitado
Escaneo previo a la ejecuciónSí — escanea comandos de terminal antes de ejecutarlosNo
Puntos de control del sistema de archivosSí — puede revertir cambiosNo
Auditoría de marketplace de habilidadesEcosistema más pequeño, menos exposición13,700+ habilidades, 341 encontradas maliciosas
CVEs conocidos0 (a mayo de 2026)CVE-2026-25253 (CVSS 8.8)

💡 Advertencia honesta

El registro de cero CVEs de Hermes refleja una exposición limitada de implementación (lanzado en febrero de 2026), no una invulnerabilidad probada. OpenClaw ha sido implementado a una escala mucho mayor durante más tiempo — más implementaciones significan más vulnerabilidades descubiertas. Ambos frameworks requieren revisión de seguridad antes de usarlos en producción.

---

📬 ¿Obtienes valor de esto? Publicamos semanalmente sobre seguridad y herramientas de IA. Recíbelo en tu bandeja de entrada →

---

¿Cómo aseguras un agente de IA autoalojado?

Ya sea que estés ejecutando Hermes, OpenClaw o cualquier otro framework de agentes, estos principios aplican:

1. Nunca expongas puertos a internet público. Ejecuta el agente detrás de una VPN o usa túneles SSH. Las decenas de miles de instancias de OpenClaw expuestas se encontraron porque la gente ejecutaba el agente en IPs públicas con puertos abiertos.

2. Audita cada habilidad de terceros antes de instalarla. Lee el código. Verifica qué permisos solicita. Mira quién la publicó y cuándo. 335 habilidades maliciosas en una campaña significa que los marketplaces de habilidades son una superficie de ataque activa.

3. Ejecuta con permisos mínimos. No des al agente acceso root. No lo conectes a bases de datos de producción. Usa acceso de solo lectura siempre que sea posible. El principio de menor privilegio aplica a los agentes de IA igual que a usuarios humanos.

4. Habilita aislamiento de contenedores. Hermes soporta contenedores Docker con sistemas de archivos root de solo lectura y capacidades eliminadas. Úsalos. Si el agente se ve comprometido, la contenedorización limita el radio de explosión.

5. Monitorea costos de API por anomalías. Un agente comprometido ejecutando llamadas API costosas puede acumular miles en cargos. Establece límites de gasto en tus cuentas de proveedores de LLM y monitorea picos inusuales.

6. Mantén el agente actualizado. Tanto Hermes como OpenClaw se desarrollan activamente. Los parches de seguridad se envían regularmente. Ejecuta la versión más reciente y suscríbete a avisos de seguridad.

¿Deberías confiar datos sensibles a agentes de IA?

La respuesta honesta: aún no, para la mayoría de casos de uso. Los agentes de IA en 2026 son potentes pero el ecosistema de seguridad es inmaduro. El Stanford HAI AI Index 2026 reporta que los agentes tienen éxito aproximadamente dos de cada tres veces en benchmarks estructurados — una tasa de fallo del 33% es demasiado alta para operaciones sensibles.

Usa agentes para tareas donde los errores son reversibles y los datos no son confidenciales. Investigación, programación, borradores de comunicación, análisis de datos en conjuntos no sensibles — estos son apropiados. Transacciones financieras, decisiones médicas, acciones legales y cualquier cosa que involucre PII de clientes debe tener revisión humana antes de la ejecución.

Para más sobre cómo funcionan los agentes de IA y sus limitaciones actuales, ve nuestra guía completa. Para comparaciones de herramientas de IA enfocadas en privacidad, revisa nuestra guía de privacidad de IA.

---

📬 ¿Quieres más como esto? Actualizaciones de seguridad de IA y reseñas de herramientas, semanalmente. Suscríbete gratis →

---

Preguntas frecuentes

¿Es Hermes Agent más seguro que OpenClaw?

Hermes tiene configuraciones de seguridad predeterminadas más conservadoras y cero CVEs, pero también es más joven y menos probado en batalla. Ningún framework debe considerarse seguro sin tu propia revisión de seguridad. Elige según tu caso de uso, no solo por reclamos de seguridad.

¿Pueden hackearse los agentes de IA mediante inyección de prompts?

Sí. La inyección de prompts — donde contenido malicioso en un documento o mensaje engaña al agente para que ejecute acciones no intencionadas — es un riesgo activo para todos los frameworks de agentes de IA. El escáner previo a la ejecución en Hermes ayuda pero no es infalible.

¿Debería ejecutar agentes de IA en mi computadora personal?

Para pruebas y uso ligero, sí. Para uso en producción siempre activo, se recomienda un VPS — aísla el agente de tus datos personales y proporciona acceso más controlado. Nunca ejecutes un agente en una máquina con datos personales o financieros sensibles sin contenedorización.

Divulgación: Algunos enlaces en este artículo son enlaces de afiliados. Solo recomendamos herramientas que hemos probado personalmente y usamos regularmente. Ve nuestra política de divulgación completa.