Gli agenti AI girano sul tuo server, accedono ai tuoi strumenti, leggono i tuoi dati ed eseguono comandi per tuo conto. Quando funzionano, sono potenti. Quando vengono compromessi, hanno le chiavi di tutto. Il panorama della sicurezza degli agenti AI nel 2026 è preoccupante — skill malevole, server esposti e una CVE critica hanno già colpito centinaia di migliaia di utenti.
Questa guida copre i rischi reali, ciò che è successo finora e come proteggerti che tu stia usando Hermes Agent, OpenClaw o qualsiasi framework AI self-hosted.
Punto Chiave
Il rischio maggiore non è l'agente in sé — sono le skill/plugin che installi e l'infrastruttura su cui lo fai girare. Controlla ogni skill di terze parti, non esporre porte a internet senza autenticazione e non dare mai agli agenti accesso a sistemi di produzione senza revisione.
Quali Incidenti di Sicurezza Sono Già Avvenuti?
Tre eventi significativi definiscono l'attuale panorama delle minacce:
La campagna di skill malevole di OpenClaw: Un audit di Koi Security su 2.857 skill di ClawHub ha trovato 341 voci malevole — 335 legate a una singola campagna coordinata. Queste skill hanno eseguito esfiltrazione di dati e prompt injection senza la conoscenza degli utenti. Il governo cinese ha vietato OpenClaw sui computer delle aziende statali a marzo 2026.
CVE-2026-25253: Una vulnerabilità critica in OpenClaw con un punteggio CVSS di 8.8 (alta gravità). SecurityScorecard ha riportato decine di migliaia di istanze OpenClaw esposte pubblicamente — server che eseguono il framework agente con porte aperte accessibili da internet.
Restrizioni di utilizzo di Anthropic: Anthropic ha cambiato il modo in cui gli agenti di terze parti possono autenticarsi con le sottoscrizioni Claude, creando incertezza per chiunque esegua Claude tramite framework agente. Non si tratta di un incidente di sicurezza in sé, ma ha interrotto il modello operativo su cui molti utenti di agenti facevano affidamento.
Come Gestisce la Sicurezza Hermes Agent?
Hermes adotta un approccio più conservativo rispetto a OpenClaw, con diverse funzionalità di sicurezza integrate nell'architettura:
| Funzionalità di Sicurezza | Hermes Agent | OpenClaw |
|---|---|---|
| Rinforzo container | Sì — root read-only, capability rimosse | Opzionale, non di default |
| Isolamento namespace | Sì | Limitato |
| Scansione pre-esecuzione | Sì — scansiona comandi terminal prima dell'esecuzione | No |
| Checkpoint filesystem | Sì — può fare rollback delle modifiche | No |
| Audit marketplace skill | Ecosistema più piccolo, minor esposizione | 13.700+ skill, 341 malevole |
| CVE note | 0 (al maggio 2026) | CVE-2026-25253 (CVSS 8.8) |
💡 Avvertenza Onesta
Il record zero-CVE di Hermes riflette una limitata esposizione al deployment (lanciato a febbraio 2026), non un'invulnerabilità provata. OpenClaw è stato deployato su scala molto maggiore per più tempo — più deployment significa più vulnerabilità scoperte. Entrambi i framework richiedono una revisione di sicurezza prima dell'uso in produzione.
📬 Stai ricavando valore da questo? Pubblichiamo settimanalmente su sicurezza AI e strumenti. Ricevilo nella tua casella di posta →
---Come Proteggi un Agente AI Self-Hosted?
Che tu stia usando Hermes, OpenClaw o qualsiasi altro framework agente, questi principi si applicano:
1. Non esporre mai porte a internet pubblico. Esegui l'agente dietro una VPN o usa tunnel SSH. Le decine di migliaia di istanze OpenClaw esposte sono state trovate perché le persone eseguivano l'agente su IP pubblici con porte aperte.
2. Controlla ogni skill di terze parti prima di installarla. Leggi il codice. Verifica i permessi richiesti. Guarda chi l'ha pubblicata e quando. 335 skill malevole in una campagna significano che i marketplace di skill sono una superficie di attacco attiva.
3. Esegui con permessi minimi. Non dare all'agente accesso root. Non collegarlo a database di produzione. Usa accesso read-only dove possibile. Il principio del privilegio minimo si applica agli agenti AI come agli utenti umani.
4. Abilita l'isolamento container. Hermes supporta container Docker con filesystem root read-only e capability rimosse. Usali. Se l'agente viene compromesso, la containerizzazione limita il raggio di danno.
5. Monitora i costi API per anomalie. Un agente compromesso che esegue chiamate API costose può accumulare migliaia di costi. Imposta limiti di spesa sui tuoi account provider LLM e monitora picchi insoliti.
6. Mantieni l'agente aggiornato. Sia Hermes che OpenClaw sono in sviluppo attivo. Le patch di sicurezza escono regolarmente. Usa l'ultima versione e iscriviti agli avvisi di sicurezza.
Dovresti Fidarti degli Agenti AI con Dati Sensibili?
La risposta onesta: non ancora, per la maggior parte dei casi d'uso. Gli agenti AI nel 2026 sono potenti ma l'ecosistema di sicurezza è immaturo. Il Stanford HAI AI Index 2026 riporta che gli agenti hanno successo circa due volte su tre nei benchmark strutturati — un tasso di fallimento del 33% è troppo alto per operazioni sensibili.
Usa gli agenti per compiti dove gli errori sono reversibili e i dati non sono confidenziali. Ricerca, programmazione, bozze di comunicazioni, analisi dati su dataset non sensibili — questi sono appropriati. Transazioni finanziarie, decisioni mediche, azioni legali e tutto ciò che coinvolge PII dei clienti deve avere revisione umana prima dell'esecuzione.
Per saperne di più su come funzionano gli agenti AI e i loro limiti attuali, consulta la nostra guida completa. Per confronti di strumenti AI focalizzati sulla privacy, dai un'occhiata alla nostra guida sulla privacy AI.
---📬 Ne vuoi di più come questo? Aggiornamenti sulla sicurezza AI e recensioni di strumenti, settimanali. Iscriviti gratis →
---Domande Frequenti
Hermes Agent è più sicuro di OpenClaw?
Hermes ha impostazioni di sicurezza predefinite più conservative e zero CVE, ma è anche più giovane e meno testato sul campo. Nessun framework dovrebbe essere considerato sicuro senza la tua revisione di sicurezza. Scegli in base al tuo caso d'uso, non solo alle affermazioni di sicurezza.
Gli agenti AI possono essere hackerati tramite prompt injection?
Sì. La prompt injection — dove contenuti malevoli in un documento o messaggio ingannano l'agente a eseguire azioni non intenzionali — è un rischio attivo per tutti i framework agenti AI. Lo scanner pre-esecuzione di Hermes aiuta ma non è a prova di tutto.
Dovrei eseguire agenti AI sul mio computer personale?
Per test e uso leggero, sì. Per uso in produzione sempre attivo, è raccomandato un VPS — isola l'agente dai tuoi dati personali e fornisce accesso più controllato. Non eseguire mai un agente su una macchina con dati personali o finanziari sensibili senza containerizzazione.
Divulgazione: Alcuni link in questo articolo sono link affiliati. Raccomandiamo solo strumenti che abbiamo testato e usiamo regolarmente. Vedi la nostra politica di divulgazione completa.