جوارديولا: الإنتر يتميز بالقوة البدينة.. لديهم سومر وباستوني
تاريخ النشر: 19th, September 2024 GMT
لندن (د ب أ)
أعرب الإسباني بيب جوارديولا، المدير الفني لمانشستر سيتي، عن رضاه بشأن مستوى فريقه، خلال التعادل السلبي مع إنتر ميلان الإيطالي، مساء الأربعاء، في الجولة الافتتاحية بدوري أبطال أوروبا. وقال جوارديولا: «واجهنا فريقاً غاية في الصعوبة، حيث يتميز إنتر بالقوة البدنية في جميع المراكز».
وأضاف: «لديهم سومر وباستوني ويلعبون على التحولات، وأنا راضٍ عن طريقة لعبنا لأنهم جيدون في الدفاع العميق، ويساعدون بعضهم البعض بطريقة مذهلة، لذا من الصعب أن تصدق عدد الفرص التي يصنعها الفريق، ونحن صنعنا بعض الفرص أيضاً».
ونقل الموقع الرسمي لمانشستر سيتي عن جوارديولا قوله بعد اللقاء: «ظهرنا بشكل أفضل كثيراً من مباراة النهائي أمامهم منذ عامين، وأنا معجب بكل ما قدمه فريقي، كنا نفضل أن نفوز، ولكن ما زال أمامنا سبع مباريات وسنرى ماذا سيحدث»، وأكد جوارديولا: «لا يزال الطريق طويلاً، لسنوات عديدة، لم أتحدث عن الألقاب على الإطلاق، حيث في دوري أبطال أوروبا تكون المشاعر مختلفة تماماً».
وأشار: «لدينا ميزة اللعب على أرضنا، ولكنني معجب بالفرق التي تدافع بشكل جيد ونحن نقوم بذلك أيضاً، حيث استقبلنا فرصة واحدة فقط على المرمى»، وختم جوارديولا حديثه بالقول: «إنهم فريق من الطراز الأول، ونحن نلعب بشكل جيد للغاية ونفضل الفوز، ولكنني لا أشعر بالندم، فأنا أحببت كل ما فعلناه في المباراة».
أخبار ذات صلة
المصدر: صحيفة الاتحاد
كلمات دلالية: إنتر ميلان دوري أبطال أوروبا الشامبيونزليج بيب جوارديولا مانشستر سيتي
إقرأ أيضاً:
سام ألتمان يحذر: لا تثقوا في ChatGPT بشكل أعمى
حث سام ألتمان، الرئيس التنفيذي لشركة OpenAI، مستخدمي ChatGPT على عدم الثقة العمياء في الأداة، مشيرا إلى أن النموذج، رغم قوّه، لا يزال عرضة للأخطاء ويجب التعامل معه بحذر.
جاءت تصريحاته خلال الحلقة الأولى من البودكاست الرسمي لشركة OpenAI، حيث أعرب عن اندهاشه من حجم الثقة التي يمنحها المستخدمون لـChatGPT، رغم علمهم بمحدوديته.
وقال ألتمان: "من المثير للاهتمام أن الناس يثقون بـChatGPT إلى هذا الحد، رغم أنه أداة معروفة بـ "الهلوسة"ـ إنها من تلك التقنيات التي لا ينبغي أن تثق بها كثيرا".
تحذير واضح رغم الشعبية الواسعةأثار هذا التصريح جدلا في الأوساط التقنية وبين المستخدمين اليوميين الذين يعتمدون على ChatGPT في مجالات متعددة، مثل الكتابة، البحث، تقديم النصائح التربوية، وغيرها.
وأكد ألتمان أن النموذج، كغيره من نماذج اللغة الضخمة، قد يصوغ إجابات مقنعة لكنها غير صحيحة أو مضللة.
وأوضح أن ChatGPT لا "يفهم" العالم كما يفهمه البشر، بل يعتمد على التنبؤ بالكلمة التالية استنادا إلى البيانات التي تم تدريبه عليها، ما يجعله أحيانا يقدم معلومات مغلوطة أو مختلقة تماما وهي الظاهرة المعروفة في مجال الذكاء الاصطناعي باسم "الهلوسة".
وقال ألتمان بصراحة: "النموذج ليس موثوقا تماما.. ويجب أن نكون صادقين بشأن ذلك".
مخاطر الاعتماد المفرطورغم الاعتراف بالعيوب، أقر ألتمان بالشعبية الكبيرة التي يحظى بها ChatGPT، لكنه حذر من الاعتماد الزائد على مخرجاته، خاصة عندما يتم التعامل مع إجاباته وكأنها حقائق مؤكدة.
وأشار إلى أهمية التوعية والشفافية في التعامل مع الذكاء الاصطناعي، والتأكيد على أن هذه الأدوات لا تخلو من التحيزات أو الأخطاء.
كما تطرق إلى بعض الميزات الجديدة القادمة إلى ChatGPT، مثل الذاكرة المستمرة، وإمكانية إدخال نموذج مدعوم بالإعلانات، وهي خطوات تهدف لتحسين التجربة الشخصية وتحقيق عوائد مالية، لكنها في الوقت نفسه تثير تساؤلات جديدة حول الخصوصية واستخدام البيانات.
"ثق.. ولكن تحقق"تتوافق تصريحات ألتمان مع وجهات نظر أخرى داخل مجتمع الذكاء الاصطناعي.
فقد عبر جيفري هينتون، المعروف بلقب "عراب الذكاء الاصطناعي"، عن موقف مشابه في مقابلة مع شبكة CBS، حيث قال: "رغم تحذيري من مخاطر الذكاء الاصطناعي المتقدم، إلا أنني نفسي أميل إلى تصديق ما يقوله GPT-4 أكثر مما ينبغي".
وأوضح هينتون ذلك من خلال اختبار بسيط: "سالي لديها ثلاثة إخوة. كل من إخوتها لديه أختان، كم عدد أخوات سالي؟"، أجاب GPT-4 إجابة خاطئة، رغم أن الجواب الصحيح هو "واحدة" سالي نفسها.
وعلق هينتون: "ما زال الأمر يفاجئني حين يخطئ في مسائل بسيطة مثل هذه"، مضيفا أنه يتوقع أن النماذج المستقبلية، مثل GPT-5، قد تتفادى مثل هذه الأخطاء.
في نهاية المطاف، يتفق كل من ألتمان وهينتون على أن الذكاء الاصطناعي يمكن أن يكون أداة فعالة، لكنه لا ينبغي أن يعامل كمصدر لا يخطئ. وبينما يتعمق هذا النوع من التقنية في تفاصيل حياتنا اليومية، تظل النصيحة الأهم: ثق.. لكن تحقق.