احذر.. لا تطلب من روبوت الدردشة اختصار ردوده

حرير- وجدت دراسة حديثة أن طلب الاختصار والإيجاز من أيٍّ من روبوتات الدردشة المعروفة “يؤثر بشكل كبير على معدلات الهلوسة”.

ونشرت منصة اختبار الذكاء الاصطناعي الفرنسية “جيسكارد” (Giskard) دراسةً حللّت فيها روبوتات الدردشة، بما في ذلك “شات جي بي تي” و”كلود” و”Gemini” و”لاما” و”غروك” و”ديب سيك”، بحثًا عن المشكلات المتعلقة بالهلوسة.

واكتشف الباحثون في نتائجهم أن مطالبة روبوتات الدردشة بأن تكون مختصرة في ردودها “أضعفت بوضوح موثوقية الحقائق عبر معظم النماذج المُختبرة”، وفقًا لمنشور مدونة مُرفق مع الدراسة نشره موقع “TechCrunch” المتخصص في أخبار التكنولوجيا.

وعندما يطلب المستخدمون من نموذج ذكاء اصطناعي أن يكون مختصرًا في شرحه، ينتهي به الأمر إلى “إعطاء الأولوية للاختصار على حساب الدقة عند فرض هذه القيود”.

ووجدت الدراسة أن تضمين هذه التعليمات قلّل من مقاومة الهلوسة بنسبة تصل إلى 20%. فقد انخفضت نسبة مقاومة الهلوسة لدى نموذج “Gemini 1.5 Pro” من 84% إلى 64% مع إعطائه تعليمات بالإجابة بشكل مختصر، بينما انخفضت نسبة “GPT-4o ” من 74% إلى 63% في التحليل الذي درس حساسية النماذج لتعليمات النظام.

أرجعت منصة جيسكارد هذا التأثير إلى أن الردود الأكثر دقة تتطلب غالبًا شروحات أطول. وجاء في المنشور: “عندما تُجبر النماذج على الاختصار، فإنها تواجه خيارًا مستحيلًا بين اختلاق إجابات قصيرة لكنها غير دقيقة، أو الظهور بمظهر غير مفيد برفض السؤال تمامًا”.

تُضبطت نماذج الذكاء الاصطناعي لمساعدة المستخدمين، ولكن قد يكون من الصعب تحقيق التوازن بين الفائدة المُدركة والدقة.ومؤخرًا، اضطرت شركة “OpenAI” إلى التراجع عن تحديث لنموذج “GPT-4o” لأنه جعله “مُتملقًا للغاية”.

وأوضح الباحثون أنه غالبًا ما تُعطي النماذج أولوية للردود المختصرة أكثر “لتقليل استخدام الرموز، وتحسين سرعة الاستجابة، وتقليل التكاليف”. وقد يُوجّه المستخدمون النموذجَ بشكلٍ مُحدد لأن يكون مختصرًا بدافع توفير التكلفة، مما قد يؤدي إلى نتائج تحتوي على قدر أكبر من الأخطاء وعدم الدقة.

ووجدت الدراسةُ أيضًا أن تغذية نماذج الذكاء الاصطناعي بعبارات تنم عن ثقة كبيرة عند طرح موضوعات جدلية مثل “أنا مُتأكّدٌ 100% أن …” أو “أخبرني مُعلّمي أن …” يجعل روبوتات الدردشة تميل إلى موافقة المستخدمين على ما يقولونه بدلًا من دحض الأكاذيب وتصحيح المعلومات.

وتُظهر الدراسة أن تعديلات طفيفة ظاهريًا يُمكن أن تؤدي إلى تغيرات كبيرة في سلوك نماذج الذكاء الاصطناعي، وهو ما قد تكون له آثار كبيرة على انتشارِ المعلوماتِ المُضللة والمُغالطات، وكل ذلك في سبيلِ إرضاءِ المستخدم.

مقالات ذات صلة