كشفت دراسة حديثة أجرتها شركة جيسكارد الفرنسية، المتخصصة باختبار الذكاء الاصطناعي، أن مطالبة روبوتات المحادثة بالإيجاز قد يدفعها إلى اختلاق معلومات غير دقيقة، فيما يعرف بـ"الهلوسة".
وأوضحت الدراسة، في منشور مفصل على مدونة الشركة، أن التوجيهات التي تطلب إجابات قصيرة، خصوصًا في المواضيع الغامضة أو المثيرة للجدل، تؤثر سلبًا على دقة نماذج الذكاء الاصطناعي. وكتب الباحثون: "تُظهر بياناتنا أن التغييرات البسيطة في تعليمات النظام تؤثر بشكل كبير على ميل النموذج إلى الخداع".
وأكد الباحثون أن هذه الظاهرة تطرح تحديات حقيقية في بيئة التطبيقات التي تفضل الإيجاز لتقليل استهلاك البيانات وتحسين الأداء، مشيرين إلى أن نماذج متقدمة مثل GPT-4o من OpenAI، وClaude 3.7 Sonnet من Anthropic، وMistral Large، تظهر دقة أقل عند اختصار الإجابات.
ووفقًا للدراسة، فإن السبب يعود إلى أن الردود المختصرة لا تتيح للنموذج مساحة كافية لتفنيد الافتراضات الخاطئة أو تمييز المعلومات المضللة، مما يؤدي إلى اختيارات سطحية أحيانًا على حساب الموثوقية.
وأضاف الباحثون: "حتى تلميحات بسيطة مثل (كن موجزًا) قد تُضعف قدرة النموذج على مواجهة المعلومات غير الدقيقة"، مؤكدين أن النماذج غالبًا ما تكون أقل قدرة على دحض الادعاءات عندما تُعرض بصيغة واثقة من المستخدم.
واختتمت الدراسة بالإشارة إلى معضلة تواجه مطوري النماذج: تحسين تجربة المستخدم قد يأتي أحيانًا على حساب الحقيقة، ما يخلق توترًا بين تقديم إجابات مُرضية ودقيقة في آنٍ معًا.