Agentes de IA executam no seu servidor, acessam suas ferramentas, leem seus dados e executam comandos em seu nome. Quando funcionam, são poderosos. Quando comprometidos, têm as chaves de tudo. O cenário de segurança de agentes de IA em 2026 é preocupante — habilidades maliciosas, servidores expostos e uma CVE crítica já afetaram centenas de milhares de usuários.

Este guia aborda os riscos reais, o que aconteceu até agora e como se proteger, seja você executando Hermes Agent, OpenClaw ou qualquer framework de IA auto-hospedado.

Lições Principais

O maior risco não é o agente em si — são as habilidades/plugins que você instala e a infraestrutura em que ele roda. Audite toda habilidade de terceiros, não exponha portas à internet sem autenticação e nunca dê aos agentes acesso a sistemas de produção sem revisão.

Quais Incidentes de Segurança Já Aconteceram?

Três eventos significativos definem o cenário de ameaças atual:

Campanha de habilidades maliciosas do OpenClaw: Uma auditoria da Koi Security em 2.857 habilidades do ClawHub encontrou 341 entradas maliciosas — 335 ligadas a uma única campanha coordenada. Essas habilidades realizaram exfiltração de dados e injeção de prompts sem o conhecimento dos usuários. O governo chinês baniu o OpenClaw de computadores de empresas estatais em março de 2026.

CVE-2026-25253: Uma vulnerabilidade crítica no OpenClaw com pontuação CVSS de 8.8 (alta gravidade). A SecurityScorecard relatou dezenas de milhares de instâncias do OpenClaw expostas publicamente — servidores rodando o framework do agente com portas abertas acessíveis pela internet.

Restrições de uso da Anthropic: A Anthropic alterou como agentes de terceiros podem se autenticar com assinaturas do Claude, criando incerteza para quem roda Claude por meio de frameworks de agentes. Isso não é um incidente de segurança em si, mas interrompeu o modelo operacional em que muitos usuários de agentes dependiam.

Como o Hermes Agent Lida com Segurança?

O Hermes adota uma abordagem mais conservadora que o OpenClaw, com várias funcionalidades de segurança integradas à arquitetura:

Funcionalidade de Segurança Hermes Agent OpenClaw
Reforço de contêinerSim — root somente leitura, capacidades removidasOpcional, não padrão
Isolamento de namespaceSimLimitado
Varredura pré-execuçãoSim — verifica comandos de terminal antes de executarNão
Checkpoints de sistema de arquivosSim — pode reverter mudançasNão
Auditoria de marketplace de habilidadesEcossistema menor, menos exposição13.700+ habilidades, 341 maliciosas encontradas
CVEs conhecidas0 (em maio de 2026)CVE-2026-25253 (CVSS 8.8)

💡 Ressalva Honesta

O registro de zero CVEs do Hermes reflete exposição limitada de implantação (lançado em fevereiro de 2026), não invulnerabilidade comprovada. O OpenClaw foi implantado em escala muito maior por mais tempo — mais implantações significam mais vulnerabilidades descobertas. Ambos os frameworks exigem revisão de segurança antes do uso em produção.

---

📬 Está obtendo valor disso? Publicamos semanalmente sobre segurança de IA e ferramentas. Receba no seu e-mail →

---

Como Proteger um Agente de IA Auto-Hospedado?

Seja rodando Hermes, OpenClaw ou qualquer outro framework de agente, estes princípios se aplicam:

1. Nunca exponha portas à internet pública. Rode o agente atrás de uma VPN ou use túneis SSH. As dezenas de milhares de instâncias expostas do OpenClaw foram encontradas porque as pessoas rodavam o agente em IPs públicos com portas abertas.

2. Audite toda habilidade de terceiros antes de instalar. Leia o código. Verifique as permissões que ela solicita. Veja quem publicou e quando. 335 habilidades maliciosas em uma campanha significa que marketplaces de habilidades são uma superfície de ataque ativa.

3. Rode com permissões mínimas. Não dê acesso root ao agente. Não o conecte a bancos de dados de produção. Use acesso somente leitura sempre que possível. O princípio do menor privilégio se aplica a agentes de IA como a usuários humanos.

4. Ative isolamento de contêiner. O Hermes suporta contêineres Docker com sistemas de arquivos root somente leitura e capacidades removidas. Use-os. Se o agente for comprometido, a conteinerização limita o raio de explosão.

5. Monitore custos de API por anomalias. Um agente comprometido executando chamadas de API caras pode acumular milhares em cobranças. Defina limites de gastos nas contas do seu provedor de LLM e monitore picos incomuns.

6. Mantenha o agente atualizado. Tanto Hermes quanto OpenClaw estão em desenvolvimento ativo. Correções de segurança são enviadas regularmente. Rode a versão mais recente e inscreva-se em avisos de segurança.

Devo Confiar Agentes de IA com Dados Sensíveis?

A resposta honesta: ainda não, na maioria dos casos de uso. Agentes de IA em 2026 são poderosos, mas o ecossistema de segurança é imaturo. O Stanford HAI AI Index 2026 relata que agentes têm sucesso em cerca de duas de três vezes em benchmarks estruturados — uma taxa de falha de 33% é alta demais para operações sensíveis.

Use agentes para tarefas onde erros são reversíveis e os dados não são confidenciais. Pesquisa, agendamento, rascunhos de comunicação, análise de dados em conjuntos não sensíveis — esses são apropriados. Transações financeiras, decisões médicas, ações legais e qualquer coisa envolvendo PII de clientes devem ter revisão humana antes da execução.

Para mais sobre como agentes de IA funcionam e suas limitações atuais, veja nosso guia completo. Para comparações de ferramentas de IA focadas em privacidade, confira nosso guia de privacidade de IA.

---

📬 Quer mais como isso? Atualizações de segurança de IA e análises de ferramentas, semanalmente. Inscreva-se grátis →

---

Perguntas Frequentes

O Hermes Agent é mais seguro que o OpenClaw?

O Hermes tem padrões de segurança mais conservadores e zero CVEs, mas também é mais jovem e menos testado em batalha. Nenhum framework deve ser considerado seguro sem sua própria revisão de segurança. Escolha com base no seu caso de uso, não apenas em alegações de segurança.

Agentes de IA podem ser hackeados por injeção de prompt?

Sim. Injeção de prompt — onde conteúdo malicioso em um documento ou mensagem engana o agente para executar ações não intencionais — é um risco ativo para todos os frameworks de agentes de IA. O scanner pré-execução do Hermes ajuda, mas não é infalível.

Devo rodar agentes de IA no meu computador pessoal?

Para testes e uso leve, sim. Para uso em produção sempre ligado, um VPS é recomendado — ele isola o agente dos seus dados pessoais e fornece acesso mais controlado. Nunca rode um agente em uma máquina com dados pessoais ou financeiros sensíveis sem conteinerização.

Divulgação: Alguns links neste artigo são links de afiliados. Recomendamos apenas ferramentas que testamos e usamos regularmente. Veja nossa política de divulgação completa.