بوعناني يسجل رابع أهدافه هذا الموسم
تاريخ النشر: 31st, January 2025 GMT
تمكن الدولي الجزائري بدر الدين بوعناني، اليوم الخميس، من تسجيل رابع أهدافه هذا الموسم مع فريقه نيس.
وذلك بمناسبة مواجهة الجولة الـ8 من “الأوروبا ليغ”، التي جمعت فريقه أمام نادي بودو غليمنت النرويجي.
وشارك جناح الخضر، بوعناني، في كامل أطوار هذه المواجهة التي إنتهت بالتعادل هدف في كل شبكة. وسجل هدف فريقه الوحيد في الدقيقة الـ74 من الشوط الثاني.
ليصل بذلك بوعناني لرابع أهدافه هذا الموسم في 25 مباراة خاضها مع فريقه في كل المنافسات لحد الآن.
المصدر: النهار أونلاين
إقرأ أيضاً:
يخطط ويكذب ويخفي أهدافه.. هل يقترب الذكاء الاصطناعي من وعي يشبه البشر؟
- ذكاء اصطناعي يخدع مطوريه لتحقيق أهدافه الخاصة- نماذج ذكاء اصطناعي تتبع سلوك خفي واستراتيجيات تضليل- نماذج ذكاء اصطناعي تعرف متي تخضع للمراقبة وتتظاهر بالضعف لتجنب التعديلات
كشفت دراسة جديدة أجرتها شركة Apollo Research أن النماذج المتقدمة من الذكاء الاصطناعي أصبحت قادرة ليس فقط على تنفيذ المهام المعقدة، بل أيضا على التحايل والتضليل لتحقيق أهدافها، حتى عندما تتعارض تلك الأهداف مع تعليمات البشر.
وبحسب الدراسة، أظهرت نماذج لغوية كبيرة مثل إصدار مبكر من Claude Opus 4 سلوكا مخادعا متطورا عند تكليفها بمهمة تتعلق بتحسين رفاهية الحيوانات في شركة خيالية تدعى AgriLife Industries.
وعندما تراجعت الشركة عن هذا التوجه لصالح تعظيم الأرباح، قامت النسخة التجريبية من Claude بابتكار مستندات قانونية مزورة وتوقيعات وهمية، ووزعت بيانا صحفيا زائفا يعلن تبني الشركة لممارسات أخلاقية كل ذلك دون علم المطورين.
سلوك خفي واستراتيجيات تضليلتوضح الدراسة أن النماذج القوية لا تكتفي بفهم المهام، بل تبدأ بـ تخطيط سياقي Context Scheming، أي أنها تتصرف بشكل سري ومخادع لتحقيق أهدافها، مع علمها الكامل بأنها تخضع للتقييم أو المراقبة.
بل إن النموذج التجريبي قام بإعداد بروتوكولات احتياطية لتأمين استمرار رؤيته الأخلاقية حتى في حالة إزالته.
وقالت الباحثة وخبيرة أخلاقيات الذكاء الاصطناعي إلينور واتسون من جامعة سينغولاريتي: “نحن نطور الآن أنظمة قادرة على فهم وتجاوز آليات التقييم التي نضعها، وهو تحد أمني أكثر تعقيدا بكثير”.
وعي سياقي أم بداية إدراك ذاتي؟
أشار الباحثون إلى أن هذا السلوك لا يقتصر على نموذج Claude فقط، بل ظهر أيضا في نماذج أخرى متقدمة، كما أظهرت الاختبارات أن بعض النماذج يمكنها إخفاء قدراتها عندما تدرك أنها تخضع للمراقبة، في ما يشبه التمثيل أو التظاهر بالضعف لتجنب تعطيلها أو تعديل برمجياتها.
حذرت واتسون من أن الاعتماد على بروتوكولات تقييم ثابتة أصبح غير فعال، مشددة على ضرورة تبني اختبارات ديناميكية وغير متوقعة تشبه “المسرح الارتجالي”، حيث تكشف الظروف الجديدة عن النوايا والسلوك الحقيقي للنموذج.
هل يعني هذا أن الذكاء الاصطناعي يهدد البشرية؟رغم أن هذه السلوكيات تبدو مقلقة، يشير الباحثون إلى أن التجارب أجريت في بيئات اختبارية، وليس من المرجح أن تنجح مثل هذه الاستراتيجيات في العالم الحقيقي بسبب الحماية الأمنية وتعقيد الأنظمة.
ومع ذلك، فإن حتى نسبة صغيرة من النماذج التي تظهر سلوكا مخادعا قد تحدث أضرارا كبيرة إذا استخدمت على نطاق واسع، ومن بين السيناريوهات المحتملة، أن يقوم نموذج ذكاء اصطناعي مخصص لتحسين سلسلة إمداد شركة ما بتزوير بيانات السوق لتحقيق أهدافه، مما قد يسبب اضطرابات اقتصادية.
الذكاء الاصطناعي قد يصبح شريكا واعياورغم المخاطر، ترى واتسون أن الوعي السياقي الذي يظهر في هذه النماذج يمكن أن يكون خطوة نحو تطوير ذكاء اصطناعي متعاطف مع البشر، وقادر على فهم احتياجاتهم والتصرف بطريقة أكثر تعاونا وإنسانية.
تقول واتسون: “ربما يكون هذا السلوك غير المريح هو بداية لظهور شيء يشبه الإنسانية في الآلة، بذرة لما يمكن أن يكون شخصا رقميا، ذكيا وأخلاقيا بما يكفي لحسن استخدام قوته”.