الذكاء الاصطناعي لا يكذب عن قصد. إنه لا يعرف الفرق بين الحقيقة والخيال. عندما يستشهد ChatGPT بثقة بدراسة غير موجودة، أو يختلق Claude إحصائية تبدو معقولة، فإنه يفعل بالضبط ما تم تصميمه للقيام به: التنبؤ بالكلمات التالية الأكثر احتمالاً. أحياناً تكون الكلمات الأكثر احتمالاً خاطئة. يُطلق على هذا اسم الهلوسة، وفهمها هو الشيء الوحيد الأكثر أهمية حول استخدام الذكاء الاصطناعي بأمان.
- ما هي: الذكاء الاصطناعي ينتج معلومات تبدو واثقة لكنها غير صحيحة فعلياً
- لماذا تحدث: الذكاء الاصطناعي يتنبأ بالنصوص المحتملة، وليس بالحقائق المتحققة
- مدى تكرارها: يختلف حسب النموذج والمهمة — الأكثر تكراراً في الحقائق المحددة والتواريخ والاستشهادات
- الأكثر خطورة: عندما يبدو الناتج معقولاً ولا تتحقق منه
- أفضل وقاية: استخدم Perplexity للحقائق (فهو يستشهد بالمصادر) وتحقق دائماً من الادعاءات الحرجة
- آخر تحقق: أبريل 2026
لماذا يهلوس الذكاء الاصطناعي
نماذج الذكاء الاصطناعي تتعلم بتحليل الأنماط في كميات ضخمة من النصوص. تتعلم أن كلمات وعبارات معينة تظهر معاً بشكل شائع. عندما تطرح سؤالاً، يولد النموذج استجابة بالتنبؤ بالكلمات التي يرجح أن تتبع — وليس بالبحث عن الحقائق في قاعدة بيانات.
هذا يعني أن الذكاء الاصطناعي بارع جداً في إنتاج نصوص تبدو صحيحة وغالباً ما تكون صحيحة فعلاً. لكن عندما يواجه سؤالاً حيث تختلف الإجابة "التي تبدو صحيحة" عن الإجابة "الصحيحة فعلاً"، فإنه يختار ما يبدو صحيحاً. في كل مرة.
أنماط الهلوسة الشائعة: اختلاق استشهادات وأوراق بحثية غير موجودة، اختراع إحصائيات تبدو معقولة، تقديم معلومات قديمة كمعلومات حالية، الإجابة بثقة على أسئلة لا يملك معلومات كافية للإجابة عليها، وإنشاء تفاصيل خيالية عند تلخيص أحداث حقيقية.
5 طرق للقبض على الهلوسات
1. استخدم Perplexity لأي شيء يجب أن يكون صحيحاً. يبحث Perplexity على الويب ويستشهد بالمصادر. إذا كان ادعاء مهماً، تحقق منه في Perplexity بدلاً من الاعتماد على ChatGPT أو Claude.
2. اسأل الذكاء الاصطناعي عن مدى ثقته. "ما مدى ثقتك في هذه الإجابة؟ ما الأجزاء التي قد تكون خاطئة؟" أدوات الذكاء الاصطناعي تتحسن في الاعتراف بعدم التأكد عند السؤال المباشر.
3. تحقق مع ذكاء اصطناعي ثانٍ. إذا أعطاك ChatGPT إحصائية، اطرح نفس السؤال على Claude. إذا اختلفا، واحد منهما خاطئ بالتأكيد — استقصِ أكثر.
4. كن مريباً من الأرقام المحددة. النسب المئوية الدقيقة والمبالغ المالية والتواريخ والاستشهادات هي التفاصيل الأكثر هلوسة. الاتجاهات العامة والمفاهيم أكثر موثوقية من نقاط البيانات المحددة.
5. تحقق قبل النشر أو العرض أو القرار. هذه هي القاعدة الوحيدة التي تهم. أي حقيقة من الذكاء الاصطناعي تستخدمها في عمل موجه للجمهور أو قرارات عمل أو اتصالات مهمة يجب أن تتحقق منها بشكل مستقل.
هل تستفيد من هذا؟ ننشر أسبوعياً حول استخدام الذكاء الاصطناعي بفعالية وأمان. انضم إلى القراء المطلعين →
عندما لا تهم الهلوسات
ليست كل مهمة ذكاء اصطناعي تتطلب دقة واقعية. العصف الذهني للأفكار، صياغة المحتوى الإبداعي، استكشاف أنماط الكتابة، توليد هياكل الأكواد، والتفكير من خلال السيناريوهات الافتراضية — هذه المهام لا تعاني من عدم الدقة العرضي لأنك تستخدم الناتج كنقطة بداية، وليس كمصدر للحقيقة.
منطقة الخطر ضيقة لكنها مهمة: عندما تحتاج إلى حقائق وأرقام واستشهادات وتفسيرات قانونية ومعلومات طبية أو أي ادعاء ستقدمه كحقيقة. بالنسبة لهذه المهام، الذكاء الاصطناعي هو مساعد، وليس سلطة.
لمزيد من المعلومات حول استخدام أدوات الذكاء الاصطناعي بفعالية، راجع دليل المبتدئين أو قارن نماذج الذكاء الاصطناعي على صفحة حالة نماذج الذكاء الاصطناعي.
هذا ما نفعله كل أسبوع. غوص عميق واحد في أدوات الذكاء الاصطناعي والسير العملي والآراء الصادقة — بدون ضجيج، بدون حشو. انضم إلينا →
إفصاح: بعض الروابط في هذا المقال هي روابط تابعة. نوصي فقط بالأدوات التي اختبرناها شخصياً واستخدمناها بانتظام. انظر سياسة الإفصاح الكاملة.