78% من الموظفين الذين يستخدمون الذكاء الاصطناعي في العمل يحضرون أدواتهم الخاصة دون موافقة تكنولوجيا المعلومات. هذا ليس تمردًا — بل هو غياب التوجيه. معظم الشركات ليس لديها سياسة الذكاء الاصطناعي، لذلك يخمن الموظفون. البعض يخمن بحذر ويفوت فرص تحسين الإنتاجية. والآخرون يلصقون البيانات الحساسة في أدوات الذكاء الاصطناعي المجانية. سياسة بسيطة من صفحة واحدة تحل كلتا المشكلتين.
لماذا هذا مهم الآن؟
لأن الخطر ليس الذكاء الاصطناعي نفسه — بل الذكاء الاصطناعي غير المُدار. بيانات العملاء المُلصقة في طبقة ChatGPT المجانية. الكود الملكي المشترك مع Copilot. التوقعات المالية التي يحللها Claude دون الأخذ في الاعتبار من الآخر قد يراها. حادثة واحدة تحول "الجميع يستخدمون الذكاء الاصطناعي" من قصة إنتاجية إلى قصة أمان.
السياسة الأساسية للذكاء الاصطناعي لا تقيد الاستخدام — بل تمكّنه. يستخدم الناس الذكاء الاصطناعي بثقة أكبر عندما يعرفون الحدود.
ماذا يجب أن تغطي السياسة؟
| الفئة | موافق عليه | اسأل أولاً | أبداً |
|---|---|---|---|
| نوع البيانات | المعلومات العامة والمستندات العامة | التقارير الداخلية والاستراتيجيات | بيانات شخصية وبيانات معرّفة وبيانات منظمة |
| الأدوات | الطبقات المدفوعة (غير مشاركة في التدريب) | الطبقات المجانية للعمل غير الحساس | أدوات الذكاء الاصطناعي غير المعروفة/غير المفحوصة |
| المخرجات | المسودات والعصف الذهني والتحليل | المحتوى الموجه للعملاء | النصائح القانونية والمالية والإرشادات الطبية |
كيف تحصل على قبول هذا؟
لا تحتاج إلى أن تكون في الإدارة. اكتب مسودة من صفحة واحدة وشاركها مع مديرك بهذا الإطار: "كنت أفكر في كيفية استخدام فريقنا لأدوات الذكاء الاصطناعي. لقد وضعت إرشادات بسيطة حتى نكون جميعاً على نفس الصفحة بشأن ما هو آمن وما هو ليس كذلك. هل يمكننا مراجعتها معاً؟" الشخص الذي ينشئ السياسة عادة ما يحصل على تشكيلها.
الخلاصة
اجعل السياسة بصيغة "تمكين استخدام الذكاء الاصطناعي بأمان" وليس "تقييد الذكاء الاصطناعي". الهدف هو منح الناس الثقة لاستخدام الذكاء الاصطناعي أكثر وليس أقل. لا أحد يقرأ السياسات التي تبدو وكأنها عقاب.
جرّبها بنفسك: الصق أي موجّه في محسّن الموجّهات المجاني الخاص بنا وانظر كيف يبدو الموجّه المنظّم فعلاً.