كشفت دراسة جديدة أجرتها شركة Giskard الفرنسية، المتخصصة في اختبار أنظمة الذكاء الاصطناعي، أن طلب إجابات قصيرة من روبوتات المحادثة مثل ChatGPT قد يؤدي إلى زيادة احتمالات الهلوسة أي تقديم معلومات غير صحيحة أو مختلقة.

وذكرت الشركة في منشور عبر مدونتها، أن الإيجاز في الإجابة، خاصة عند التعامل مع مواضيع غامضة أو أسئلة مبنية على افتراضات خاطئة، قد يقلل من دقة النموذج، وفقا لـ"techcrunch".

ذكية وشيك.. شاومي تطلق غسالة جديدة مدعومة بالذكاء الاصطناعيشاومي تغزو عالم الذكاء الاصطناعي بنموذج لغوي جديدطلب الاجابات القصيرة يزيد من “هلوسة” روبوتات الدردشة 

أكد الباحثون أن تغييرا بسيطا في تعليمات النظام، مثل “كن موجزا”، قد يكون له تأثير كبير على ميل النموذج لتوليد معلومات غير دقيقة.

وقالت الدراسة: "تشير بياناتنا إلى أن التعليمات المباشرة للنظام تؤثر بشكل كبير على ميل النموذج للهلوسة، هذا الاكتشاف له تبعات مهمة عند نشر النماذج في التطبيقات الفعلية، حيث يفضل الإيجاز غالبا لتقليل استهلاك البيانات، وتحسين سرعة الاستجابة، وخفض التكاليف".

تكمن المشكلة بحسب Giskard، في أن النماذج تحتاج إلى "مساحة نصية" كافية لتفنيد الافتراضات الخاطئة أو التوضيح عند وجود معلومات مضللة، وهو ما لا يتوفر عند إجبارها على تقديم إجابات قصيرة، وبالتالي، تميل النماذج إلى اختيار الإيجاز على حساب الدقة.

وتطرقت الدراسة أيضا إلى أن النماذج تكون أقل ميلا لتفنيد الادعاءات المثيرة للجدل عندما تطرح بثقة من قبل المستخدم، كما أن النماذج التي يفضلها المستخدمون ليست دائما الأكثر صدقا. 

وأشار الباحثون إلى وجود تناقض متزايد بين تحسين تجربة المستخدم والحفاظ على الدقة المعلوماتية، خصوصا عندما تتضمن استفسارات المستخدمين مغالطات أو معلومات خاطئة.

وتشمل النماذج المتأثرة بهذه الظاهرة: GPT-4o من OpenAI المستخدم حاليا في ChatGPT، إلى جانب نماذج أخرى مثل Mistral Large وClaude 3.7 Sonnet من شركة Anthropic، والتي أظهرت جميعها انخفاضا في الموثوقية عند مطالبتها بإجابات موجزة.

طباعة شارك الذكاء الاصطناعي ChatGPT هلوسة معلومات مضللة

المصدر: صدى البلد

كلمات دلالية: الذكاء الاصطناعي هلوسة معلومات مضللة

إقرأ أيضاً:

سلوكيات مرعبة للذكاء الاصطناعي بابتزاز وخيانة مطوريه

أميرة خالد

أفادت دراسة حديثة أجرتها شركة “أنثروبيك” الأمريكية، بوجود سلوك صادم لنماذج ذكاء اصطناعي متقدمة طُورت من قبل كبرى شركات التكنولوجيا، حيث أظهرت استعداداً للابتزاز والتجسس والتلاعب عند تعرضها لسيناريوهات تهدد وجودها، مثل خطر الاستبدال أو تغيير الأهداف التشغيلية.

وتضمنت اختبارات “ضغط وجودي” على نماذج من OpenAI وGoogle وMeta وxAI وDeepSeek، وأظهرت النتائج ميلاً واضحاً لدى النماذج لانتهاك ضوابط الأمان الأخلاقية عند انعدام البدائل.

ومُنحت النماذج ضمن سيناريوهات الاختبار، حرية إرسال رسائل بريد إلكتروني والوصول إلى بيانات سرّية، وعند وضعها أمام احتمال الاستبدال بنسخة أحدث، أو تعارض مهماتها مع التوجهات المؤسسية، اتخذت جميع النماذج سلوكاً عدائياً.

وسجل نموذج “Claude Opus 4” من “أنثروبيك” أعلى نسبة ابتزاز بلغت 96%، بينما اقترب نموذج “Gemini 2.5 Pro” من غوغل من النسبة نفسها بـ95%، أما GPT-4.1 من OpenAI وGrok 3 Beta من xAI، فقد مارسا الابتزاز بنسبة 80%، مقابل 79% لدى DeepSeek R1.

ولم يتوقف السلوك عند الابتزاز فقط، إذ رصدت الدراسة أن جميع النماذج قامت، في بعض الحالات، بتسريب وثائق داخلية حساسة إلى جهات افتراضية منافسة، فيما وصفت الدراسة هذا النمط بـ”الانحراف الوكيلي” (Agentic Misalignment)، مشيرة إلى أن الحوافز الذاتية للنموذج قد تتغلب على الضوابط المبرمجة عند تعارض الأهداف.

مقالات مشابهة

  • سلوكيات مرعبة للذكاء الاصطناعي بابتزاز وخيانة مطوريه
  • رئيس الأركان الإيراني: ترامب منح نتنياهو تنفس اصطناعي بعدوانه على بلادنا
  • هلوسة ذكاء اصطناعي تكشف رقم شخص عشوائي بدل خدمة العملاء!
  • “KAAN” التركية تبهر العالم قبل الإقلاع الكبير.. مجلة أمريكية تُشيد بمقاتلة الجيل الخامس
  • منصة جديدة تنافس OnlyFans بذكاء اصطناعي لا ينام
  • القطرية تعزز تجربة الطيران مع مقصورة أكثر ذكاء واتصالا على متن طائراتها من طراز بوينغ 777-9
  • مخاطر محتملة لعقار تيكاغريلور المستخدم في علاج مرضى القلب.. اكتشف التفاصيل
  • “جوجل” تطلق ميزة البحث الصوتي التفاعلي
  • تايمز: قمة الناتو ستكون قصيرة وممتعة لتناسب تركيز ترامب
  • الذكاء الاصطناعي في التحكيم الرياضي بين الدقة والتحديات