الاسم الإنجليزي: Hallucination / AI Confabulation
الاسم العربي: الهلوسة الاصطناعية / الاختلاق
المستوى: مبتدئ
باختصار
الهلوسة في الذكاء الاصطناعي (AI Hallucination) هي ظاهرة تقوم فيها نماذج اللغة بتوليد معلومات تبدو صحيحة ومنطقية تماماً، لكنها في الواقع مختلقة أو مغلوطة. النموذج «يكذب بثقة» دون أن يعرف أنه يكذب.
لماذا «هلوسة» تحديداً؟
اختار الباحثون هذا المصطلح تشبيهاً بالهلوسة البشرية: حين يرى الإنسان أو يسمع شيئاً لا وجود له في الواقع لكنه يبدو حقيقياً لمن يختبره. الفارق أن الإنسان في الهلوسة يؤمن بما يرى، أما النموذج فلا «يؤمن» أصلاً — إنه فقط يولّد النص الأكثر احتمالاً إحصائياً، وهذا أحياناً يكون معلومة خاطئة.
مثال من الواقع
سألت باحثة ChatGPT في 2023 عن مرجع علمي لبحثها. النموذج أعطاها اسم الباحث، عنوان الورقة، اسم المجلة، رقم العدد، الصفحات — كل شيء. مشكلة واحدة: الورقة لم تكن موجودة أبداً. النموذج اخترع كل هذه التفاصيل بثقة تامة.
هذا مثال كلاسيكي على الهلوسة. والأخطر أن المعلومات المختلقة تبدو موثوقة تماماً لأن النموذج يُنسّقها جيداً ويعطيها تفاصيل منطقية.
لماذا تحدث الهلوسة؟
فهم السبب يبدأ من فهم كيف تعمل نماذج اللغة. هذه النماذج تعلّمت من مليارات النصوص أن «تُكمل» الجمل بأكثر الكلمات احتمالاً. هي لا تبحث عن حقائق — هي تتنبأ بالنص الأكثر توقعاً.
المشكلة تظهر حين يكون السؤال عن معلومة محددة ليست موجودة بشكل واضح في بيانات التدريب. بدلاً من أن يقول النموذج «لا أعلم»، يُوجد معلومة تبدو صحيحة. هذا نتيجة طبيعية لكيفية تصميم هذه الأنظمة.
أنواع الهلوسة
- الهلوسة الواقعية: اختراع حقائق مغلوطة (تواريخ، أشخاص، أرقام)
- الهلوسة المصدرية: عزو معلومات لمصادر غير موجودة (كتب، أبحاث، اقتباسات)
- هلوسة الهوية: الخلط بين شخصيات أو كيانات متشابهة
- هلوسة التواصل: الادعاء بالقدرة على أشياء لا يستطيع النموذج فعلها
كيف أحمي نفسي؟
لا تثق بأي معلومة من نموذج AI دون التحقق منها، خاصة إذا كانت:
- أرقاماً دقيقة (إحصائيات، تواريخ، مبالغ)
- أسماء أشخاص أو شركات محددة
- مراجع أو اقتباسات
- معلومات طبية أو قانونية
استخدم النماذج التي تدعم web search مثل Perplexity AI أو ChatGPT مع تفعيل البحث للمعلومات التي تحتاج للتحقق.
هل حُلّت المشكلة؟
جزئياً. تقنيات مثل RAG (Retrieval Augmented Generation) وGrounding قلّلت الهلوسة كثيراً في النماذج الحديثة. لكن المشكلة لم تُحلّ كلياً حتى الآن، وهي من أكبر التحديات البحثية في مجال الذكاء الاصطناعي.
مصطلحات مرتبطة
RAG — الاسترجاع المعزز للتوليد |
Grounding — التأريض |
LLM — نماذج اللغة الكبيرة |
Prompt Engineering — هندسة التعليمات
قرمصيص للأخبار أخبار الذكاء الاصطناعي بالعربي