AI agents आपके सर्वर पर चलते हैं, आपके टूल्स तक पहुँचते हैं, आपके डेटा को पढ़ते हैं, और आपके प्रतिनिधि पर कमांड निष्पादित करते हैं। जब वे काम करते हैं, तो वे शक्तिशाली होते हैं। जब वे समझौता हो जाते हैं, तो उनके पास सब कुछ की चाबियाँ होती हैं। 2026 में AI agent सुरक्षा परिदृश्य चिंताजनक है — दुर्भावनापूर्ण स्किल्स, उजागर सर्वर, और एक महत्वपूर्ण CVE ने पहले ही लाखों उपयोगकर्ताओं को प्रभावित कर दिया है।
यह गाइड वास्तविक जोखिमों, अब तक क्या हुआ है, और खुद को कैसे सुरक्षित रखें इसका कवरेज करती है, चाहे आप Hermes Agent, OpenClaw, या कोई भी self-hosted AI framework चला रहे हों।
मुख्य बात
सबसे बड़ा जोखिम agent खुद नहीं है — बल्कि वे skills/plugins हैं जो आप इंस्टॉल करते हैं और वह infrastructure जिस पर आप इसे चलाते हैं। हर third-party skill का ऑडिट करें, बिना authentication के ports को इंटरनेट पर expose न करें, और कभी भी production systems तक agents को access न दें बिना समीक्षा के।
कौन सी सुरक्षा घटनाएँ पहले ही हो चुकी हैं?
तीन महत्वपूर्ण घटनाएँ वर्तमान खतरे के परिदृश्य को परिभाषित करती हैं:
OpenClaw का दुर्भावनापूर्ण skill अभियान: Koi Security के 2,857 ClawHub skills के ऑडिट में 341 दुर्भावनापूर्ण एंट्रीज़ मिलीं — 335 एक ही समन्वित अभियान से जुड़ीं। इन skills ने उपयोगकर्ताओं की जानकारी के बिना data exfiltration और prompt injection किया। चीनी सरकार ने मार्च 2026 में OpenClaw को state-owned कंपनी कंप्यूटर्स पर प्रतिबंधित कर दिया।
CVE-2026-25253: OpenClaw में एक महत्वपूर्ण vulnerability जिसका CVSS स्कोर 8.8 (उच्च गंभीरता) है। SecurityScorecard ने दसियों हज़ार publicly exposed OpenClaw instances रिपोर्ट किए — agent framework चलाने वाले सर्वर जिनके open ports इंटरनेट से accessible थे।
Anthropic उपयोग प्रतिबंध: Anthropic ने third-party agents के Claude subscriptions से authenticate करने के तरीके को बदल दिया, जिससे agent frameworks के ज़रिए Claude चलाने वालों के लिए अनिश्चितता पैदा हो गई। यह सुरक्षा घटना नहीं है, लेकिन कई agent उपयोगकर्ताओं के operational model को बाधित कर दिया।
Hermes Agent सुरक्षा को कैसे हैंडल करता है?
Hermes, OpenClaw से अधिक conservative approach लेता है, जिसमें architecture में कई सुरक्षा फीचर्स बिल्ट-इन हैं:
| सुरक्षा फीचर | Hermes Agent | OpenClaw |
|---|---|---|
| Container hardening | हाँ — read-only root, dropped capabilities | वैकल्पिक, default नहीं |
| Namespace isolation | हाँ | सीमित |
| Pre-execution scanning | हाँ — चलाने से पहले terminal commands स्कैन करता है | नहीं |
| Filesystem checkpoints | हाँ — changes को rollback कर सकता है | नहीं |
| Skill marketplace audit | छोटा ecosystem, कम exposure | 13,700+ skills, 341 दुर्भावनापूर्ण पाई गईं |
| Known CVEs | 0 (मई 2026 तक) | CVE-2026-25253 (CVSS 8.8) |
💡 ईमानदार चेतावनी
Hermes का zero-CVE रिकॉर्ड limited deployment exposure को दर्शाता है (फरवरी 2026 में लॉन्च), proven invulnerability नहीं। OpenClaw को कहीं अधिक scale पर और लंबे समय से deploy किया गया है — अधिक deployment का मतलब अधिक discovered vulnerabilities। दोनों frameworks को production use से पहले security review की ज़रूरत है।
📬 इससे फायदा हो रहा है? हम AI सुरक्षा और टूल्स पर साप्ताहिक प्रकाशन करते हैं। अपने इनबॉक्स में पाएँ →
---Self-Hosted AI Agent को कैसे सुरक्षित करें?
चाहे आप Hermes, OpenClaw, या कोई अन्य agent framework चला रहे हों, ये सिद्धांत लागू होते हैं:
1. कभी भी ports को public internet पर expose न करें। Agent को VPN के पीछे चलाएँ या SSH tunnels का उपयोग करें। दसियों हज़ार exposed OpenClaw instances इसलिए मिले क्योंकि लोग agent को public IPs पर open ports के साथ चला रहे थे।
2. हर third-party skill को इंस्टॉल करने से पहले ऑडिट करें। कोड पढ़ें। देखें कि यह कौन सी permissions मांगता है। देखें कि इसे किसने और कब प्रकाशित किया। एक अभियान में 335 दुर्भावनापूर्ण skills का मतलब है कि skill marketplaces एक active attack surface हैं।
3. Minimal permissions के साथ चलाएँ। Agent को root access न दें। इसे production databases से न जोड़ें। जहाँ संभव हो read-only access का उपयोग करें। Least privilege का सिद्धांत AI agents पर उतना ही लागू होता है जितना human users पर।
4. Container isolation को enable करें। Hermes Docker containers को सपोर्ट करता है read-only root filesystems और dropped capabilities के साथ। उनका उपयोग करें। अगर agent समझौता हो जाता है, तो containerization blast radius को सीमित करता है।
5. API costs को anomalies के लिए monitor करें। समझौता agent महंगे API calls चलाकर हज़ारों का bill रच सकता है। अपने LLM provider accounts पर spending limits सेट करें और unusual spikes के लिए निगरानी रखें।
6. Agent को updated रखें। Hermes और OpenClaw दोनों actively developed हैं। Security patches नियमित रूप से आते हैं। Latest version चलाएँ और security advisories के लिए subscribe करें।
क्या Sensitive Data के साथ AI Agents पर भरोसा करें?
ईमानदार जवाब: अभी तक नहीं, अधिकांश use cases के लिए। 2026 में AI agents शक्तिशाली हैं लेकिन security ecosystem immature है। Stanford HAI AI Index 2026 रिपोर्ट करता है कि agents structured benchmarks पर लगभग तीन में से दो बार सफल होते हैं — 33% failure rate sensitive operations के लिए बहुत अधिक है।
Agents का उपयोग उन tasks के लिए करें जहाँ गलतियाँ reversible हों और डेटा confidential न हो। Research, scheduling, communication drafts, non-sensitive datasets पर data analysis — ये उचित हैं। Financial transactions, medical decisions, legal actions, और customer PII से जुड़ी कोई भी चीज़ execution से पहले human review होनी चाहिए।
AI agents कैसे काम करते हैं और उनकी current limitations के बारे में अधिक जानने के लिए, हमारा complete guide देखें। Privacy-focused AI tool comparisons के लिए, हमारा AI privacy guide चेक करें।
---📬 ऐसा और चाहिए? AI सुरक्षा अपडेट्स और टूल रिव्यू, साप्ताहिक। मुफ्त subscribe करें →
---अक्सर पूछे जाने वाले प्रश्न
क्या Hermes Agent OpenClaw से सुरक्षित है?
Hermes के पास अधिक conservative security defaults और zero CVEs हैं, लेकिन यह युवा और कम battle-tested भी है। कोई भी framework बिना आपके own security review के secure नहीं माना जाना चाहिए। Use case के आधार पर चुनें, न कि security claims के आधार पर।
क्या AI agents को prompt injection से hack किया जा सकता है?
हाँ। Prompt injection — जहाँ document या message में malicious content agent को unintended actions करने के लिए धोखा देता है — सभी AI agent frameworks के लिए active risk है। Hermes का pre-execution scanner मदद करता है लेकिन foolproof नहीं है।
क्या मुझे AI agents को personal computer पर चलाना चाहिए?
Testing और light use के लिए, हाँ। Always-on production use के लिए, VPS की सिफारिश है — यह agent को आपके personal data से isolate करता है और अधिक controlled access देता है। Sensitive personal या financial data वाली मशीन पर agent कभी न चलाएँ बिना containerization के।
Disclosure: Some links in this article are affiliate links. We only recommend tools we've personally tested and use regularly. See our full disclosure policy.