Hermes Agent instaluje się jednym poleceniem i działa na Linuxie, macOS lub WSL2. Ale instalacja to najłatwiejsza część — różnica między „działa” a „rzeczywiście poprawia się z czasem” tkwi w konfiguracji. Większość użytkowników, którzy uważają Hermesa za rozczarowujący, nigdy nie włączyła funkcji, które czynią go wyjątkowym.
Ten przewodnik obejmuje wszystko od pierwszej instalacji po pierwsze zautomatyzowane zadanie, wraz z krokami konfiguracji, które pomijają większość poradników.
Kluczowe wnioski
Instalacja zajmuje 2 minuty. Konfiguracja 15. Kluczowe kroki, które większość osób pomija: włączenie persistent_memory i skill_generation w konfiguracji. Bez nich Hermes działa jak zwykły agent jednosesyjny.
Co potrzebujesz przed instalacją?
Prawie nic. Instalator Hermesa obsługuje zależności automatycznie. Potrzebujesz:
| Wymaganie | Szczegóły |
|---|---|
| System operacyjny | Linux, macOS lub Windows z WSL2 |
| Klucz API LLM | Przynajmniej jeden: Anthropic (Claude), OpenAI (GPT), Google (Gemini) lub OpenRouter |
| Sprzęt | Dowolny nowoczesny komputer. Dla zawsze włączonego: VPS za 5-10 USD/miesiąc działa świetnie |
| Dostęp do terminala | Podstawowa znajomość wiersza poleceń |
Jak zainstalować Hermes Agent?
Krok 1: Uruchom instalator.
To pobiera i konfiguruje wszystko — Node.js, zależności Pythona, SQLite i środowisko uruchomieniowe Hermesa. Zajmuje 1-3 minuty w zależności od połączenia.
Krok 2: Skonfiguruj dostawcę LLM.
Po instalacji Hermes zapyta, którego dostawcę LLM chcesz użyć. Najpopularniejsze opcje:
📋 PRZYKŁADY KONFIGURACJI DOSTAWCÓW
# Dla Claude (najlepsza jakość, wyższy koszt) provider: anthropic model: claude-sonnet-4-20250514 api_key: sk-ant-... # Dla GPT (dobra równowaga) provider: openai model: gpt-5.4 api_key: sk-... # Dla oszczędnych konfiguracji (darmowe przez OpenRouter) provider: openrouter model: qwen/qwen-3.5 api_key: sk-or-...
Ogólna opinia społeczności na temat modeli: GPT 5.4 z trybem myślenia na średnim+ to najpopularniejszy codzienny wybór. Qwen 3.5 na OpenRouter jest darmowy i wystarczająco dobry do rutynowej automatyzacji. Claude Opus daje najlepszą jakość, ale kosztuje znacznie więcej — a Anthropic ogranicza intensywne użycie przez osoby trzecie.
Krok 3: Włącz ważne funkcje.
To miejsce, w którym większość poradników cię zawodzi. Otwórz plik konfiguracyjny Hermesa i włącz te dwa ustawienia:
Bez nich Hermes zapomina wszystko między sesjami i nigdy nie tworzy wielokrotnego użytku umiejętności. Staje się zwykłym opakowaniem chatbota. Z włączonymi po każdej złożonej zadaniu (5+ wywołań narzędzi) automatycznie tworzony jest plik umiejętności, a wszystkie rozmowy są wyszukiwalne między sesjami.
---📬 Odnosisz z tego wartość? Publikujemy cotygodniowe przewodniki po narzędziach i workflowach AI. Odbieraj do skrzynki →
---Jak uruchomić pierwsze zadanie?
Uruchom Hermesa w terminalu:
Jesteś teraz w sesji interaktywnej. Wypróbuj te początkowe zadania, aby sprawdzić, czy wszystko działa:
Test podstawowej rozmowy: „Czym możesz mi pomóc?” — sprawdza połączenie z LLM.
Test wyszukiwania w sieci: „Wyszukaj najnowsze wiadomości o Nous Research i podsumuj w 3 punktach.” — sprawdza działanie wywoływania narzędzi.
Test tworzenia umiejętności: „Zbadaj 5 najlepszych frameworków agentów AI w 2026, porównaj ich funkcje i napisz raport podsumowujący.” — to powinno uruchomić 5+ wywołań narzędzi, co oznacza, że Hermes automatycznie utworzy plik umiejętności po zakończeniu. Sprawdź katalog umiejętności, aby potwierdzić utworzenie pliku.
Test pamięci: Zamknij sesję, uruchom nową i zapytaj „O czym rozmawialiśmy ostatnim razem?”. Jeśli persistent memory działa, Hermes przypomni poprzednią rozmowę.
Jak podłączyć platformy messagingowe?
Hermes obsługuje Discord, Telegram, Slack, Microsoft Teams i inne. Każda platforma wymaga utworzenia tokenu bota i dodania go do konfiguracji. Oto przykład dla Discorda:
1. Utwórz bota Discorda na discord.com/developers/applications
2. Skopiuj token bota
3. Dodaj do konfiguracji Hermesa:
4. Uruchom ponownie Hermesa. Twój bot pojawi się na serwerze Discord, gotowy do odpowiedzi.
Taki sam wzorzec stosuje się do Telegrama (token BotFather), Slacka (token OAuth app) i innych platform. Hermes v0.10.0 dodał Microsoft Teams jako platformę z wbudowanym pluginem i obsługuje łącznie ponad 18 platform messagingowych.
Jak skonfigurować profile dla wielu przypadków użycia?
Hermes v0.6.0 wprowadził profile — izolowane instancje z oddzielną konfiguracją, pamięcią, umiejętnościami i połączeniami gateway. Dzięki temu możesz uruchomić profil „praca” ze integracją Slack i profil „osobisty” z Telegramem, każdy z własną pamięcią i wyuczonymi umiejętnościami.
Jakie są najczęstsze błędy konfiguracji?
| Błąd | Objaw | Poprawka |
|---|---|---|
| persistent_memory nie włączone | Agent zapomina wszystko między sesjami | Ustaw persistent_memory: true w konfiguracji |
| skill_generation nie włączone | Brak plików umiejętności po złożonych zadaniach | Ustaw skill_generation: true w konfiguracji |
| Używanie ustawień modelu o niskim zaangażowaniu | Jakość wyjścia wydaje się gorsza | Ustaw effort na high lub xhigh |
| Uruchamianie na publicznym VPS bez utwardzenia | Ekspozycja bezpieczeństwa | Włącz izolację kontenerów, tylko do odczytu root |
| Brak konfiguracji checkpoint/rollback | Nie można odzyskać po błędach agenta | Włącz checkpointy systemu plików w konfiguracji |
Po szersze zrozumienie, jak działają agenty AI i gdzie Hermes pasuje w ekosystemie, zobacz nasz kompletny przewodnik. A dla lepszych promptów podczas interakcji z dowolnym agentem AI, wypróbuj darmowy Prompt Optimizer.
---📬 Chcesz więcej takich treści? Praktyczne przewodniki po konfiguracji AI, co tydzień. Zapisz się za darmo →
---Często zadawane pytania
Ile czasu zajmuje konfiguracja?
Instalacja to 2 minuty. Podstawowa konfiguracja LLM to 5 minut. Włączenie pamięci, umiejętności i integracji messagingowych to kolejne 10-15 minut. Razem: poniżej 30 minut do w pełni funkcjonalnego agenta.
Czy mogę uruchomić Hermes Agent na Raspberry Pi?
Technicznie tak (działa na Linuksie), ale wydajność będzie ograniczona. VPS za 5-10 USD/miesiąc od DigitalOcean lub Hetzner zapewni lepszą wydajność i możliwość zawsze włączonego działania.
Co się stanie, jeśli później zmienię dostawcę LLM?
Zmiana to prosta modyfikacja konfiguracji — bez zmian w kodzie. Twoja pamięć, umiejętności i historia rozmów pozostaną zachowane. Tylko odpowiedzi LLM zmienią się pod względem jakości/stylu w zależności od nowego modelu.
Czy potrzebuję Dockera?
Nie. Standardowa instalacja nie wymaga Dockera. Docker jest opcjonalny i zalecany tylko dla wdrożeń produkcyjnych, gdzie chcesz izolację kontenerów dla bezpieczeństwa.
Ujawnienie: Niektóre linki w tym artykule to linki afiliacyjne. Polecamy tylko narzędzia, które osobiście testowaliśmy i regularnie używamy. Zobacz naszą pełną politykę ujawniania.