شفق نيوز:
2025-05-11@03:33:39 GMT

دراسة: القردة توصل معلومات للبشر لتغيير سلوكه

تاريخ النشر: 7th, February 2025 GMT

دراسة: القردة توصل معلومات للبشر لتغيير سلوكه

دراسة: القردة توصل معلومات للبشر لتغيير سلوكه.

المصدر: شفق نيوز

كلمات دلالية: العراق هاكان فيدان تركيا محمد شياع السوداني انتخابات مجالس المحافظات بغداد ديالى نينوى ذي قار ميسان اقليم كوردستان السليمانية اربيل نيجيرفان بارزاني إقليم كوردستان العراق بغداد اربيل تركيا اسعار الدولار روسيا ايران يفغيني بريغوجين اوكرانيا امريكا كرة اليد كرة القدم المنتخب الاولمبي العراقي المنتخب العراقي بطولة الجمهورية الكورد الفيليون الكورد الفيليون خانقين البطاقة الوطنية مطالبات العراق بغداد ذي قار ديالى حادث سير الكورد الفيليون مجلة فيلي عاشوراء شهر تموز مندلي قردة سلوك البشر

إقرأ أيضاً:

ذكاء اصطناعي بلا تركيز.. روبوتات المحادثة تفتقد الدقة عند الإيجاز

كشفت دراسة جديدة أجرتها شركة Giskard الفرنسية، المتخصصة في اختبار أنظمة الذكاء الاصطناعي، أن طلب إجابات قصيرة من روبوتات المحادثة مثل ChatGPT قد يؤدي إلى زيادة احتمالات الهلوسة أي تقديم معلومات غير صحيحة أو مختلقة.

وذكرت الشركة في منشور عبر مدونتها، أن الإيجاز في الإجابة، خاصة عند التعامل مع مواضيع غامضة أو أسئلة مبنية على افتراضات خاطئة، قد يقلل من دقة النموذج، وفقا لـ"techcrunch".

ذكية وشيك.. شاومي تطلق غسالة جديدة مدعومة بالذكاء الاصطناعيشاومي تغزو عالم الذكاء الاصطناعي بنموذج لغوي جديدطلب الاجابات القصيرة يزيد من “هلوسة” روبوتات الدردشة 

أكد الباحثون أن تغييرا بسيطا في تعليمات النظام، مثل “كن موجزا”، قد يكون له تأثير كبير على ميل النموذج لتوليد معلومات غير دقيقة.

وقالت الدراسة: "تشير بياناتنا إلى أن التعليمات المباشرة للنظام تؤثر بشكل كبير على ميل النموذج للهلوسة، هذا الاكتشاف له تبعات مهمة عند نشر النماذج في التطبيقات الفعلية، حيث يفضل الإيجاز غالبا لتقليل استهلاك البيانات، وتحسين سرعة الاستجابة، وخفض التكاليف".

تكمن المشكلة بحسب Giskard، في أن النماذج تحتاج إلى "مساحة نصية" كافية لتفنيد الافتراضات الخاطئة أو التوضيح عند وجود معلومات مضللة، وهو ما لا يتوفر عند إجبارها على تقديم إجابات قصيرة، وبالتالي، تميل النماذج إلى اختيار الإيجاز على حساب الدقة.

وتطرقت الدراسة أيضا إلى أن النماذج تكون أقل ميلا لتفنيد الادعاءات المثيرة للجدل عندما تطرح بثقة من قبل المستخدم، كما أن النماذج التي يفضلها المستخدمون ليست دائما الأكثر صدقا. 

وأشار الباحثون إلى وجود تناقض متزايد بين تحسين تجربة المستخدم والحفاظ على الدقة المعلوماتية، خصوصا عندما تتضمن استفسارات المستخدمين مغالطات أو معلومات خاطئة.

وتشمل النماذج المتأثرة بهذه الظاهرة: GPT-4o من OpenAI المستخدم حاليا في ChatGPT، إلى جانب نماذج أخرى مثل Mistral Large وClaude 3.7 Sonnet من شركة Anthropic، والتي أظهرت جميعها انخفاضا في الموثوقية عند مطالبتها بإجابات موجزة.

طباعة شارك الذكاء الاصطناعي ChatGPT هلوسة معلومات مضللة

مقالات مشابهة

  • "معلومات حساسة" من واشنطن إلى الهند أدت لوقف إطلاق النار
  • ترامب يعلن توصل الهند وباكستان إلى اتفاق كامل لوقف إطلاق النار | التفاصيل الكاملة
  • تفاصيل التحقيق مع تشكيل عصابى بتهمة سرقة هواتف المحمول
  • ذكاء اصطناعي بلا تركيز.. روبوتات المحادثة تفتقد الدقة عند الإيجاز
  • معلومات عن مشروع إنشاء محطة تحيا مصر 2 بميناء الدخيلة
  • لاوون الرابع عشر.. معلومات عن بابا الفاتيكان الجديد ودلالة الاسم
  • معلومات جديدة حول مقتل شيرين أبو عاقلة وتوضيح مصير القاتل
  • وثائقي يكشف اسم الجندي الإسرائيلي قاتل شيرين أبو عاقلة
  • لا يمكن للبشر البقاء على المريخ أكثر من 4 سنوات
  • مصدران لـCNN: ترامب يخطط لتغيير تسمية أمريكا للخليج.. وإيران تحذر