العبدلي: مانشيني يجب عليه أن يغير طريقة اللعب أو يرحل.. فيديو
تاريخ النشر: 14th, October 2023 GMT
ماجد محمد
أكد الناقد الرياضي مساعد العبدلي، أن المدير الفني للمنتخب الوطني روبرتو مانشيني، عليه أن يغير طريقة لعب المنتخب أو يرحل.
وقال مساعد العبدلي، عبر برنامج “برا 18”: “نتيجة المباريات الودية ليست دائماً مهمة، والمنتخب لديه فوضى فنية، وطريقة لعب المدرب لم تكن واضحة”.
وأضاف: “الأسلوب الذي لعب به مانشيني يحتاج إلى وقت كبير وصعب تأسيس اللاعبين السعوديين على الكرة الإيطالية”، متابعًا: “يجب عليه أن يغير طريقة اللعب أو يرحل”.
#برا_18| مساعد العبدلي:
نتيجة المباريات الودية ليست دائماً مهمة، والمنتخب لديه فوضى فنية، ومانشيني يجب عليه أن يغير طريقة اللعب أو "يرحل"#SSC pic.twitter.com/HLbtJP3ATI
— شركة الرياضة السعودية SSC (@ssc_sports) October 13, 2023
المصدر: صحيفة صدى
إقرأ أيضاً:
هل الذكاء الاصطناعي يصبح أكثر تشابهًا مع البشر؟ اكتشاف مفاجئ يغير كل شيء!
شمسان بوست / متابعات:
كشفت الأبحاث سمة مدهشة مشتركة بين البشر والذكاء الاصطناعي، حيث يُظهر الأخير نفس الميل للأخطاء والتحيزات المعرفية مثل الإنسان.
على الرغم من الاختلافات الكبيرة بين العمليات الفكرية البشرية والذكاء الاصطناعي، اكتشف العلماء أن حتى أكثر نماذج الذكاء الاصطناعي تطورا تتمتع أحيانا بالسلوك غير العقلاني.
ووفقا لنتائج دراسة أجراها المتخصصون من جامعات كندا وأستراليا، فإن روبوت الدردشة ChatGPT يظهر في 47% من الحالات أفخاخا نفسية نموذجية مميزة للبشر.
وكشفت اختبارات نماذج GPT-3.5 وGPT-4 المطورة من تصنيع شركة OpenAI أن هذه الأنظمة ليست محصنة ضد أنماط السلوك البشري المماثلة، على الرغم من أنها تتمتع بدرجة عالية من الاتساق في الاستنتاجات. ويشير الباحثون إلى أن هذا الاتساق له جوانب إيجابية وسلبية.
واختبرت دراسة الشبكة العصبية على التحيزات المعرفية البشرية المعروفة، مثل تجنب المخاطرة، والثقة المفرطة، وتأثير الإنجاز والنجاح. وطالت الأسئلة علم النفس التقليدي وسياقات الأعمال الواقعية على حد سواء.
وأظهرت GPT-4 نتائج أفضل النتائج في المهام ذات الحلول الرياضية الواضحة، حيث ارتكبت أخطاء أقل في السيناريوهات القائمة على المنطق والاحتمالات. لكن في المحاكاة الذاتية، مثل إيجاد خيار محفوف بالمخاطر لتحقيق مكاسب، غالبا ما انعكست في ردود روبوت الدردشة نفس العقلانية غير المنطقية المتأصلة في البشر.
مع ذلك فإن الباحثين يشيرون إلى أن “GPT-4 أظهر ميلا أكبر للتنبؤية والأمان مقارنة بالبشر”.
ونصح البروفيسور يانغ تشين الأستاذ المساعد في قسم الإدارة التشغيلية بكلية “آيفي” للأعمال في كندا:” للحصول على مساعدة دقيقة وموضوعية في اتخاذ القرارات، استخدم الذكاء الاصطناعي في المواقف التي تثق فيها بالحاسوب. لكن عندما يتطلب القرار بيانات استراتيجية أو ذاتية، فإن الإشراف البشري يصبح ضروريا. لا ينبغي اعتبار الذكاء الاصطناعي موظفا يتخذ قرارات مصيرية، بل يحتاج إلى رقابة وإرشادات أخلاقية. وإلا فإننا نخاطر بأتمتة التفكير الخاطئ بدلا من تحسينه”.
المصدر: Naukatv.ru