أيهما أفضل حليب اللوز أم الشوفان لإنقاص الوزن؟.. مقارنة بين الفوائد والسلبيات.

المصدر: شفق نيوز

كلمات دلالية: العراق هاكان فيدان تركيا محمد شياع السوداني انتخابات مجالس المحافظات بغداد ديالى نينوى ذي قار ميسان اقليم كوردستان السليمانية اربيل نيجيرفان بارزاني إقليم كوردستان العراق بغداد اربيل تركيا اسعار الدولار روسيا ايران يفغيني بريغوجين اوكرانيا امريكا كرة اليد كرة القدم المنتخب الاولمبي العراقي المنتخب العراقي بطولة الجمهورية الكورد الفيليون الكورد الفيليون خانقين البطاقة الوطنية مطالبات العراق بغداد ذي قار ديالى حادث سير الكورد الفيليون مجلة فيلي عاشوراء شهر تموز مندلي حليب اللوز حليب الشوفان إنقاص الوزن

إقرأ أيضاً:

دراسة: الذكاء الاصطناعي يقع في نفس أخطاء البشر.. متحيز وواثق بنفسه

كشفت دراسة حديثة أن نموذج الذكاء الاصطناعي "تشات جي بي تي" (ChatGPT) يعاني من انحيازات معرفية مشابهة لتلك التي يعاني منها البشر، ما يؤثر بشكل مباشر على طريقة اتخاذه للقرارات.

وأظهرت الدراسة، التي نشرتها مجلة "Manufacturing Management"، أن "الذكاء الاصطناعي واثق بنفسه ومتحيز مثل البشر"، مؤكدة أن هذه الأنماط ليست عشوائية بل جزء من منهجية عمل النظام.

وأكدت الدراسة أن "تشات جي بي تي" وقع في العديد من الانحرافات الإدراكية البشرية في نحو نصف السيناريوهات التي خضع لها، منها الميل لتجنب المخاطر والثقة الزائدة وتأثير التملك سواء في سياقات نفسية أو أعمال واقعية، حسب موقع "Naukatv".


وأشارت الدراسة، التي أجراها باحثون من خمس جامعات كندية وأسترالية، إلى أنهم اختبروا نماذج GPT-3.5 وGPT-4 من شركة OpenAI، لقياس مدى انحرافها عن التفكير المنطقي، رغم ما وصفوه بـ"الاتساق المثير للإعجاب" في التفكير.

وبيّن الباحثون أن GPT-4 أظهر أداء أفضل في المسائل الحسابية والسيناريوهات المبنية على الاحتمالات، لكنه في المقابل وقع في أخطاء غير عقلانية عند مواجهة مواقف تتطلب قرارات ذات طابع شخصي أو استراتيجي، مشددين على أن GPT-4 أظهر ميلا أكبر نحو التنبؤ والسلامة مقارنة بالبشر.

ولفتت الدراسة إلى أن سلوك الذكاء الاصطناعي بقي متماسكا بغض النظر عن طبيعة الأسئلة، ما يعزز الاستنتاج بأن هذه الانحرافات ليست نتيجة أمثلة محفوظة فقط، بل تعكس منهجية داخلية في تفكير الآلة.


كما أضاف الباحثون أن GPT-4 عزز أحيانًا الأخطاء البشرية، وأظهر ميلاً أعلى لتصديق ما يُعرف بتأثير اليد الساخنة مقارنة بـGPT-3.5، في حين تمكن من تجنب بعض الانحيازات الأخرى مثل تجاهل الاحتمالات الأساسية.

وقال رئيس الفريق البحثي وأستاذ إدارة العمليات في كلية آيفي بكندا، يانغ تشين، إنه "من أجل الحصول على مساعدة دقيقة وموضوعية في اتخاذ القرار، استخدم GPT في المهام التي تثق فيها بالآلة الحاسبة. ولكن إذا تطلب القرار بيانات استراتيجية أو ذات طابع شخصي، فالإشراف البشري ضروري".

وأضاف أنه "لا ينبغي اعتبار الذكاء الاصطناعي موظفا يتخذ قرارات مصيرية. بل يجب إخضاعه للرقابة وتوجيهات أخلاقية، وإلا فإننا نخاطر بأتمتة تفكير خاطئ بدلا من تحسينه".

مقالات مشابهة

  • 5 أشياء مذهلة تحدث لجسمك عند التوقف عن شرب الشاي لمدة أسبوع
  • مقارنة بين رينو كارديان وكوبرا تيرامار 2025
  • منها اللوز والكاجو.. 6 أطعمة غنية بالمغنسيوم تحميك من الإصابة بالكبد الدهني
  • 97.54 مليار ريال أرباح “أرامكو ” للربع الأول 2025 بتراجع 4.6 %
  • بين الفوائد والمخاطر.. لماذا يحب البعض الأطعمة الحارة وما تأثيرها على صحتنا؟
  • «الشاي» بين الفوائد والمخاطر.. هل لا يزال كوبك اليومي آمناً؟
  • دراسة: الذكاء الاصطناعي يقع في نفس أخطاء البشر.. متحيز وواثق بنفسه
  • ” CMF” من “Nothing ” توفر هاتف “2 Pro ” في الإمارات 22 الجاري
  • خبير مصرفي: فوائد البطاقة الائتمانية أعلى من القروض .. فيديو
  • 15 في المئة تراجعاً بشهية شراء الذهب في الكويت