Hermes Agent instala com um único comando e roda no Linux, macOS ou WSL2. Mas a instalação é a parte fácil — a diferença entre "ele roda" e "ele realmente melhora com o tempo" está na configuração. A maioria dos usuários que acham o Hermes mediano nunca ativou os recursos que o tornam diferente.
Este guia cobre tudo, desde a primeira instalação até sua primeira tarefa automatizada, com os passos de configuração que a maioria dos tutoriais pula.
Principal Conclusão
Instalação leva 2 minutos. Configuração leva 15. Os passos críticos que a maioria das pessoas perde: ativar persistent_memory e skill_generation no config. Sem esses, Hermes se comporta como qualquer outro agente de sessão única.
O Que Você Precisa Antes de Instalar?
Quase nada. O instalador do Hermes gerencia as dependências automaticamente. Você precisa:
| Requisito | Detalhes |
|---|---|
| Sistema Operacional | Linux, macOS ou Windows com WSL2 |
| Chave de API LLM | Pelo menos uma: Anthropic (Claude), OpenAI (GPT), Google (Gemini) ou OpenRouter |
| Hardware | Qualquer máquina moderna. Para sempre ligado: VPS de $5-10/mês funciona bem |
| Acesso ao terminal | Familiaridade básica com linha de comando |
Como Instalar o Hermes Agent?
Passo 1: Execute o instalador.
Isso baixa e configura tudo — Node.js, dependências Python, SQLite e o runtime do Hermes. Leva 1-3 minutos dependendo da sua conexão.
Passo 2: Configure seu provedor LLM.
Após a instalação, Hermes pergunta qual provedor LLM usar. As opções mais comuns:
📋 EXEMPLOS DE CONFIGURAÇÃO DE PROVEDOR
# Para Claude (melhor qualidade, custo maior) provider: anthropic model: claude-sonnet-4-20250514 api_key: sk-ant-... # Para GPT (bom equilíbrio) provider: openai model: gpt-5.4 api_key: sk-... # Para setups econômicos (grátis via OpenRouter) provider: openrouter model: qwen/qwen-3.5 api_key: sk-or-...
Consenso da comunidade sobre modelos: GPT 5.4 com modo de pensamento em médio+ é o mais popular para uso diário. Qwen 3.5 no OpenRouter é grátis e capaz o suficiente para automação rotineira. Claude Opus produz a melhor qualidade, mas custa bem mais — e a Anthropic tem restringido uso pesado por terceiros.
Passo 3: Ative os recursos que importam.
Aqui é onde a maioria dos tutoriais falha. Abra seu arquivo de config do Hermes e ative essas duas configurações:
Sem essas, Hermes esquece tudo entre sessões e nunca cria habilidades reutilizáveis. Ele vira só mais um wrapper de chatbot. Com elas ativadas, toda tarefa complexa (5+ chamadas de ferramenta) cria automaticamente um arquivo de skill, e todas as conversas ficam pesquisáveis entre sessões.
---📬 Está obtendo valor disso? Publicamos guias semanais sobre ferramentas e fluxos de IA. Receba no seu inbox →
---Como Executar Sua Primeira Tarefa?
Inicie o Hermes no seu terminal:
Você agora está em uma sessão interativa. Experimente essas tarefas iniciais para verificar se tudo funciona:
Teste conversa básica: "Com o que você pode me ajudar?" — verifica se a conexão LLM funciona.
Teste pesquisa web: "Pesquise as últimas notícias sobre Nous Research e resuma em 3 bullets." — verifica se chamadas de ferramenta funcionam.
Teste criação de skill: "Pesquise os 5 principais frameworks de agentes de IA em 2026, compare os recursos e escreva um relatório de resumo." — isso deve acionar 5+ chamadas de ferramenta, o que significa que Hermes criará automaticamente um arquivo de skill ao terminar. Verifique seu diretório de skills para confirmar que o arquivo foi criado.
Teste memória: Feche a sessão, inicie uma nova e pergunte "O que discutimos da última vez?" Se a memória persistente estiver funcionando, Hermes lembrará da conversa anterior.
Como Conectar Plataformas de Mensagens?
Hermes suporta Discord, Telegram, Slack, Microsoft Teams e mais. Cada plataforma requer criar um token de bot e adicioná-lo ao config. Aqui vai Discord como exemplo:
1. Crie um bot Discord em discord.com/developers/applications
2. Copie o token do bot
3. Adicione ao seu config do Hermes:
4. Reinicie o Hermes. Seu bot aparece no seu servidor Discord, pronto para responder.
O mesmo padrão se aplica ao Telegram (token BotFather), Slack (token OAuth do app) e outras plataformas. Hermes v0.10.0 adicionou Microsoft Teams como plataforma com plugin incluso e suporta 18+ plataformas de mensagens no total.
Como Configurar Perfis para Múltiplos Casos de Uso?
Hermes v0.6.0 introduziu perfis — instâncias isoladas com configuração, memória, skills e conexões de gateway separadas. Isso permite rodar um perfil "trabalho" com integração Slack e um perfil "pessoal" com Telegram, cada um com sua própria memória e habilidades aprendidas.
Quais São os Erros Mais Comuns de Configuração?
| Erro | Sintoma | Correção |
|---|---|---|
| persistent_memory não ativado | Agente esquece tudo entre sessões | Defina persistent_memory: true no config |
| skill_generation não ativado | Nenhum arquivo de skill criado após tarefas complexas | Defina skill_generation: true no config |
| Usando configurações de modelo de baixo esforço | Qualidade da saída parece pior | Defina effort para high ou xhigh |
| Rodando em VPS público sem reforço | Exposição de segurança | Ative isolamento de container, root só-leitura |
| Não configurando checkpoint/rollback | Não consegue recuperar de erros do agente | Ative checkpoints de filesystem no config |
Para uma compreensão mais ampla de como agentes de IA funcionam e onde o Hermes se encaixa no ecossistema, veja nosso guia completo. E para prompts melhores ao interagir com qualquer agente de IA, experimente o Prompt Optimizer grátis.
---📬 Quer mais assim? Guias práticos de configuração de IA, semanalmente. Assine grátis →
---Perguntas Frequentes
Quanto tempo leva a configuração?
Instalação é 2 minutos. Configuração básica de LLM é 5 minutos. Ativar memória, skills e integrações de mensagens leva mais 10-15 minutos. Total: menos de 30 minutos para um agente totalmente funcional.
Posso rodar o Hermes Agent em um Raspberry Pi?
Tecnicamente sim (roda no Linux), mas o desempenho será limitado. Um VPS de $5-10/mês da DigitalOcean ou Hetzner oferece melhor performance e capacidade sempre ligada.
O que acontece se eu trocar provedores LLM depois?
Trocar é só uma mudança no config — sem modificações de código. Sua memória, skills e histórico de conversas são preservados. Apenas as respostas do LLM mudam em qualidade/estilo com base no novo modelo.
Preciso do Docker?
Não. A instalação padrão não requer Docker. Docker é opcional e recomendado só para implantações em produção onde você quer isolamento de container por segurança.
Divulgação: Alguns links neste artigo são links de afiliados. Recomendamos apenas ferramentas que testamos e usamos regularmente. Veja nossa política de divulgação completa.