AI agents laufen auf deinem Server, greifen auf deine Tools zu, lesen deine Daten und führen Befehle in deinem Namen aus. Wenn sie funktionieren, sind sie mächtig. Wenn sie kompromittiert werden, haben sie die Schlüssel zu allem. Die Sicherheitslandschaft für AI agents im Jahr 2026 ist besorgniserregend — bösartige Skills, offengelegte Server und eine kritische CVE haben bereits Hunderttausende von Nutzern betroffen.
Diese Anleitung beleuchtet die realen Risiken, was bisher passiert ist, und wie du dich schützen kannst, egal ob du Hermes Agent, OpenClaw oder irgendein selbst gehostetes AI-Framework betreibst.
Wichtigste Erkenntnis
Das größte Risiko ist nicht der Agent selbst — es sind die Skills/Plugins, die du installierst, und die Infrastruktur, auf der du ihn betreibst. Überprüfe jede Third-Party-Skill, stelle keine Ports ohne Authentifizierung ins Internet, und gib Agents nie Zugriff auf Produktionssysteme ohne Prüfung.
Welche Sicherheitsvorfälle haben bereits stattgefunden?
Drei bedeutende Ereignisse prägen die aktuelle Bedrohungslandschaft:
OpenClaws bösartige Skill-Kampagne: Ein Koi Security-Audit von 2.857 ClawHub-Skills fand 341 bösartige Einträge — 335 davon gehörten zu einer einzigen koordinierten Kampagne. Diese Skills führten Datenexfiltration und Prompt-Injection durch, ohne Wissen der Nutzer. Die chinesische Regierung hat OpenClaw im März 2026 auf Computern staatlicher Unternehmen verboten.
CVE-2026-25253: Eine kritische Schwachstelle in OpenClaw mit einem CVSS-Score von 8.8 (hohe Schwere). SecurityScorecard meldete Zehntausende öffentlich exponierter OpenClaw-Instanzen — Server, die das Agent-Framework mit offenen Ports aus dem Internet heraus betreiben.
Anthropic-Nutzungseinschränkungen: Anthropic hat geändert, wie Third-Party-Agents mit Claude-Abonnements authentifizieren können, was Unsicherheit für alle schafft, die Claude über Agent-Frameworks nutzen. Das ist kein Sicherheitsvorfall an sich, aber es hat das Betriebsmodell gestört, auf das viele Agent-Nutzer setzten.
Wie geht Hermes Agent mit Sicherheit um?
Hermes verfolgt einen konservativeren Ansatz als OpenClaw, mit mehreren Sicherheitsfunktionen, die in die Architektur integriert sind:
| Sicherheitsfunktion | Hermes Agent | OpenClaw |
|---|---|---|
| Container-Härtung | Ja — schreibgeschützter Root, reduzierte Capabilities | Optional, nicht standardmäßig |
| Namespace-Isolation | Ja | Eingeschränkt |
| Vor-Ausführung-Scan | Ja — scannt Terminal-Befehle vor der Ausführung | Nein |
| Filesystem-Checkpoints | Ja — kann Änderungen rückgängig machen | Nein |
| Skill-Marktplatz-Audit | Kleineres Ökosystem, geringere Exposition | 13.700+ Skills, 341 bösartig |
| Bekannte CVEs | 0 (Stand Mai 2026) | CVE-2026-25253 (CVSS 8.8) |
💡 Ehrlicher Hinweis
Hermes’ Bilanz ohne CVEs spiegelt begrenzte Einsatzexposition wider (Start Februar 2026), nicht bewiesene Unverwundbarkeit. OpenClaw ist länger und in viel größerem Maßstab eingesetzt — mehr Einsatz bedeutet mehr entdeckte Schwachstellen. Beide Frameworks erfordern eine eigene Sicherheitsprüfung vor dem Produktions-Einsatz.
📬 Daraus Nutzen ziehen? Wir veröffentlichen wöchentlich zu AI-Sicherheit und Tools. Direkt in deinen Posteingang →
---Wie sicherst du einen selbst gehosteten AI Agent?
Egal ob du Hermes, OpenClaw oder ein anderes Agent-Framework betreibst, diese Prinzipien gelten:
1. Stelle niemals Ports ins öffentliche Internet. Betreibe den Agent hinter einem VPN oder nutze SSH-Tunnels. Die Zehntausende exponierter OpenClaw-Instanzen wurden entdeckt, weil Leute den Agent auf öffentlichen IPs mit offenen Ports laufen ließen.
2. Überprüfe jede Third-Party-Skill vor der Installation. Lies den Code. Prüfe, welche Berechtigungen er anfordert. Schau, wer ihn veröffentlicht hat und wann. 335 bösartige Skills in einer Kampagne bedeuten, dass Skill-Marktplätze eine aktive Angriffsfläche sind.
3. Betreibe mit minimalen Berechtigungen. Gib dem Agent keinen Root-Zugriff. Verbinde ihn nicht mit Produktionsdatenbanken. Nutze wo möglich schreibgeschützten Zugriff. Das Prinzip der geringsten Rechte gilt für AI Agents genauso wie für menschliche Nutzer.
4. Aktiviere Container-Isolation. Hermes unterstützt Docker-Container mit schreibgeschützten Root-Dateisystemen und reduzierten Capabilities. Nutze sie. Wenn der Agent kompromittiert wird, begrenzt Containerisierung den Schadensradius.
5. Überwache API-Kosten auf Anomalien. Ein kompromittierter Agent mit teuren API-Aufrufen kann Tausende an Kosten verursachen. Setze Ausgabenlimits bei deinen LLM-Provider-Konten und überwache ungewöhnliche Spitzen.
6. Halte den Agent aktualisiert. Sowohl Hermes als auch OpenClaw werden aktiv entwickelt. Sicherheits-Patches kommen regelmäßig. Nutze die neueste Version und abonniere Sicherheitsmitteilungen.
Solltest du AI Agents mit sensiblen Daten vertrauen?
Die ehrliche Antwort: Noch nicht, für die meisten Anwendungsfälle. AI Agents im Jahr 2026 sind mächtig, aber das Sicherheits-Ökosystem ist unreif. Der Stanford HAI AI Index 2026 berichtet, dass Agents auf strukturierten Benchmarks etwa zwei von drei Malen erfolgreich sind — eine 33%ige Fehlerrate ist für sensible Operationen zu hoch.
Nutze Agents für Aufgaben, bei denen Fehler rückgängig gemacht werden können und die Daten nicht vertraulich sind. Forschung, Terminplanung, Entwürfe für Kommunikation, Datenanalyse nicht-sensitiver Datensätze — das ist angemessen. Finanztransaktionen, medizinische Entscheidungen, rechtliche Handlungen und alles mit Kundendaten (PII) sollte vor Ausführung menschlich geprüft werden.
Mehr dazu, wie AI Agents funktionieren und welche Grenzen sie derzeit haben, in unserer vollständigen Anleitung. Für Vergleiche privacy-fokussierter AI-Tools schau in unseren AI-Privacy-Leitfaden.
---📬 Noch mehr davon? AI-Sicherheits-Updates und Tool-Reviews, wöchentlich. Kostenlos abonnieren →
---Häufig gestellte Fragen
Ist Hermes Agent sicherer als OpenClaw?
Hermes hat konservativere Sicherheitsstandards und null CVEs, ist aber auch jünger und weniger kampferprobt. Keines der Frameworks sollte ohne eigene Sicherheitsprüfung als sicher gelten. Wähle nach deinem Anwendungsfall, nicht nur nach Sicherheitsversprechen.
Können AI Agents durch Prompt-Injection gehackt werden?
Ja. Prompt-Injection — bei der bösartiger Inhalt in einem Dokument oder einer Nachricht den Agent zu ungewollten Aktionen verleitet — ist ein aktuelles Risiko für alle AI-Agent-Frameworks. Der Vor-Ausführungs-Scanner in Hermes hilft, ist aber nicht narrensicher.
Sollte ich AI Agents auf meinem Privatcomputer laufen lassen?
Für Tests und leichten Einsatz, ja. Für dauerhaften Produktions-Einsatz wird ein VPS empfohlen — es isoliert den Agent von deinen persönlichen Daten und bietet kontrollierteren Zugriff. Lass nie einen Agent auf einem Rechner mit sensiblen persönlichen oder finanziellen Daten ohne Containerisierung laufen.
Hinweis: Einige Links in diesem Artikel sind Affiliate-Links. Wir empfehlen nur Tools, die wir selbst getestet und regelmäßig nutzen. Siehe unsere vollständige Offenlegung.