Agenci AI działają na twoim serwerze, uzyskują dostęp do twoich narzędzi, czytają twoje dane i wykonują polecenia w twoim imieniu. Gdy działają poprawnie, są potężni. Gdy zostaną zhakowane, mają klucze do wszystkiego. Krajobraz bezpieczeństwa agentów AI w 2026 roku jest niepokojący — złośliwe umiejętności, odsłonięte serwery i krytyczna luka CVE dotknęły już setek tysięcy użytkowników.
Ten przewodnik omawia realne ryzyka, to co wydarzyło się do tej pory oraz jak się chronić, niezależnie od tego, czy uruchamiasz Hermes Agent, OpenClaw czy dowolny samohostowany framework AI.
Kluczowe wnioski
Największym ryzykiem nie jest sam agent — to umiejętności/wtyczki, które instalujesz oraz infrastruktura, na której go uruchamiasz. Przejrzyj każdą umiejętność od osób trzecich, nie wystawiaj portów na internet bez uwierzytelniania i nigdy nie dawaj agentom dostępu do systemów produkcyjnych bez przeglądu.
Jakie incydenty bezpieczeństwa już miały miejsce?
Trzy znaczące wydarzenia definiują obecny krajobraz zagrożeń:
Kampania złośliwych umiejętności OpenClaw: Audyt Koi Security 2857 umiejętności ClawHub wykazał 341 złośliwych wpisów — 335 powiązanych z jedną skoordynowaną kampanią. Te umiejętności przeprowadzały exfiltrację danych i wstrzykiwanie promptów bez wiedzy użytkowników. Chiński rząd zakazał OpenClaw na komputerach firm państwowych w marcu 2026.
CVE-2026-25253: Krytyczna luka w OpenClaw z wynikiem CVSS 8.8 (wysoka powaga). SecurityScorecard zgłosił dziesiątki tysięcy publicznie odsłoniętych instancji OpenClaw — serwerów uruchamiających framework agenta z otwartymi portami dostępnymi z internetu.
Ograniczenia użycia Anthropic: Anthropic zmienił sposób, w jaki agenci stron trzecich mogą uwierzytelniać się z subskrypcjami Claude, wprowadzając niepewność dla wszystkich uruchamiających Claude przez frameworki agentów. To nie jest incydent bezpieczeństwa per se, ale zakłóciło model operacyjny, na którym polegało wielu użytkowników agentów.
Jak Hermes Agent radzi sobie z bezpieczeństwem?
Hermes stosuje bardziej konserwatywne podejście niż OpenClaw, z kilkoma funkcjami bezpieczeństwa wbudowanymi w architekturę:
| Funkcja bezpieczeństwa | Hermes Agent | OpenClaw |
|---|---|---|
| Wzmocnienie kontenera | Tak — tylko do odczytu root, usunięte możliwości | Opcjonalne, nie domyślne |
| Izolacja przestrzeni nazw | Tak | Ograniczona |
| Skanowanie przed wykonaniem | Tak — skanuje polecenia terminala przed uruchomieniem | Nie |
| Punkty kontrolne systemu plików | Tak — może cofnąć zmiany | Nie |
| Audyt rynku umiejętności | Mniejszy ekosystem, mniejsze narażenie | 13 700+ umiejętności, 341 złośliwych |
| Znane CVE | 0 (stan na maj 2026) | CVE-2026-25253 (CVSS 8.8) |
💡 Uczciwa uwaga
Zerowy rekord CVE Hermesa odzwierciedla ograniczone narażenie na wdrożenia (uruchomiony w lutym 2026), a nie udowodnioną niewrażliwość. OpenClaw był wdrażany na znacznie większą skalę i dłużej — więcej wdrożeń oznacza więcej odkrytych luk. Oba frameworki wymagają przeglądu bezpieczeństwa przed użyciem w produkcji.
📬 Otrzymujesz z tego wartość? Publikujemy co tydzień o bezpieczeństwie AI i narzędziach. Odbieraj do skrzynki →
---Jak zabezpieczyć samohostowanego agenta AI?
Niezależnie od tego, czy uruchamiasz Hermes, OpenClaw czy inny framework agentów, te zasady mają zastosowanie:
1. Nigdy nie wystawiaj portów na publiczny internet. Uruchamiaj agenta za VPN lub używaj tuneli SSH. Dziesiątki tysięcy odsłoniętych instancji OpenClaw znaleziono, bo ludzie uruchamiali agenta na publicznych IP z otwartymi portami.
2. Przejrzyj każdą umiejętność od osób trzecich przed instalacją. Przeczytaj kod. Sprawdź, jakie uprawnienia żąda. Zobacz, kto i kiedy to opublikował. 335 złośliwych umiejętności w jednej kampanii oznacza, że rynki umiejętności to aktywna powierzchnia ataku.
3. Uruchamiaj z minimalnymi uprawnieniami. Nie dawaj agentowi dostępu root. Nie podłączaj do baz danych produkcyjnych. Używaj dostępu tylko do odczytu tam, gdzie to możliwe. Zasada najmniejszych uprawnień dotyczy agentów AI tak samo jak ludzkich użytkowników.
4. Włącz izolację kontenera. Hermes obsługuje kontenery Docker z systemami plików root tylko do odczytu i usuniętymi możliwościami. Używaj ich. Jeśli agent zostanie zhakowany, konteneryzacja ogranicza promień zniszczeń.
5. Monitoruj koszty API pod kątem anomalii. Zhakowany agent wykonujący drogie wywołania API może nabić tysiące w opłatach. Ustaw limity wydatków na kontach dostawcy LLM i monitoruj nietypowe skoki.
6. Aktualizuj agenta. Zarówno Hermes, jak i OpenClaw są aktywnie rozwijane. Łaty bezpieczeństwa wydawane są regularnie. Używaj najnowszej wersji i subskrybuj powiadomienia o bezpieczeństwie.
Czy powinieneś zaufać agentom AI z wrażliwymi danymi?
Uczciwa odpowiedź: jeszcze nie, w większości przypadków użycia. Agenci AI w 2026 roku są potężni, ale ekosystem bezpieczeństwa jest niedojrzały. Raport Stanford HAI AI Index 2026 podaje, że agenci odnoszą sukces mniej więcej dwa na trzy razy w strukturalnych testach — 33% wskaźnik niepowodzeń jest za wysoki dla wrażliwych operacji.
Używaj agentów do zadań, gdzie błędy są odwracalne, a dane nie są poufne. Badania, planowanie, szkice komunikacji, analiza danych na nieczułych zbiorach — to odpowiednie zastosowania. Transakcje finansowe, decyzje medyczne, działania prawne i wszystko związane z PII klientów powinno mieć ludzką weryfikację przed wykonaniem.
Dowiedz się więcej o tym, jak działają agenci AI i ich obecnych ograniczeniach w naszym kompletnym przewodniku. Porównania narzędzi AI zorientowanych na prywatność znajdziesz w naszym przewodniku po prywatności AI.
---📬 Chcesz więcej takich treści? Aktualizacje bezpieczeństwa AI i recenzje narzędzi, co tydzień. Subskrybuj za darmo →
---Często zadawane pytania
Czy Hermes Agent jest bezpieczniejszy niż OpenClaw?
Hermes ma bardziej konserwatywne domyślne ustawienia bezpieczeństwa i zero CVE, ale jest też młodszy i mniej przetestowany w boju. Żaden framework nie powinien być uznany za bezpieczny bez twojego własnego przeglądu bezpieczeństwa. Wybieraj na podstawie przypadku użycia, nie tylko deklaracji bezpieczeństwa.
Czy agenty AI mogą być zhakowane przez wstrzykiwanie promptów?
Tak. Wstrzykiwanie promptów — gdzie złośliwa zawartość w dokumencie lub wiadomości oszukuje agenta do wykonania niepożądanych akcji — to aktywne ryzyko dla wszystkich frameworków agentów AI. Skaner przed wykonaniem w Hermes pomaga, ale nie jest nieomylny.
Czy powinienem uruchamiać agentów AI na swoim komputerze osobistym?
Do testów i lekkiego użycia, tak. Do ciągłego użycia produkcyjnego zaleca się VPS — izoluje agenta od twoich osobistych danych i zapewnia bardziej kontrolowany dostęp. Nigdy nie uruchamiaj agenta na maszynie z wrażliwymi osobistymi lub finansowymi danymi bez konteneryzacji.
Ujawnienie: Niektóre linki w tym artykule to linki afiliacyjne. Polecamy tylko narzędzia, które osobiście testowaliśmy i regularnie używamy. Zobacz naszą pełną politykę ujawniania.