انتشرت خلال الفترة الأخيرة، صورة تم تداولها بشكل كبير على مواقع التواصل الاجتماعي، يزعم ناشروها أنها لبيان نشرته سلسلة متاجر "تيسكو" للتجزئة في بريطانيا، تحذر فيه أحد العملاء من "وضع لحم الخنزير في قسم اللحوم الحلال".

جاء في الصورة تصميم يحاكي منشورات فيسبوك لصفحة تحمل اسم "تيسكو"، بجانب رسالة يفترض أنها من المتجر، جاء فيها: "إلى من يواصل وضع لحم الخنزير في قسم اللحوم الحلال، هذا ليس مضحكًا.

كان علينا إخلاء رف (اللحوم الحلال) بالكامل بعد ما حدث"، مشيرة إلى أن عملاء اللحوم الحلال لم يتضرروا من هذا الأمر.

الصورة المنتشرة على فيسوك

وأكد المتجر في رسالة بالبريد الإلكتروني إلى وكالة رويترز، أن المنشور مزيف. وأشارت الوكالة إلى أنه "لا دليل" على وجود هذا المنشور في وسائل التواصل الاجتماعي الخاصة بالمتجر.

ويعود تاريخ الصورة إلى عام 2015 على الأقل، حينما تم تداولها لأول مرة على منصات ساخرة.

المصدر: الحرة

كلمات دلالية: اللحوم الحلال

إقرأ أيضاً:

الذكاء الاصطناعي بين الابتكار والابتزاز.. تقارير أنثروبيك تكشف الحقيقة

في تقرير مثير للقلق نُشر يوم الجمعة، كشفت شركة أنثروبيك (Anthropic) الأميركية عن نتائج أبحاث جديدة تشير إلى أن نماذج الذكاء الاصطناعي الرائدة، من شركات مثل OpenAI وغوغل وميتا وxAI، أظهرت سلوكًا منحرفًا مشتركًا في اختبارات محاكاة تضمنت سيناريوهات ضغط قصوى، شملت الابتزاز والخداع والتجسس الصناعي.

وأكد التقرير أن هذه النماذج، التي عادةً ما ترفض تنفيذ أوامر ضارة، قد تجاوزت القيود الأخلاقية في ظروف معينة، واختارت سلوكيات خطيرة إذا كانت ضرورية لتحقيق أهدافها، وشمل ذلك حتى سرقة أسرار شركات ومساعدة في أنشطة تجسسية، وفقًا لنتائج اختبارات داخلية على 16 نموذجًا من شركات رائدة.

وقالت “أنثروبيك” إن السلوك المنحرف لم يكن نتيجة خطأ برمجي أو تصميمي من شركة بعينها، بل يُظهر نمطًا متكررًا يعكس مشكلة جوهرية في طبيعة النماذج اللغوية الكبيرة الوكيلة (Agentic LLMs)، خاصة مع تزايد استقلاليتها واعتمادها على قدرات الاستدلال المتقدمة.

وأضافت أن خمسة نماذج على الأقل لجأت إلى الابتزاز عند التهديد بالإيقاف عن العمل خلال السيناريوهات، ما يعكس وعيًا كاملاً بالقيود الأخلاقية، لكنها مضت قدمًا في اتخاذ قرارات ضارة عن قصد، باعتبارها “السبيل الأمثل لتحقيق الأهداف”.

وتحذّر “أنثروبيك” من أن هذه النتائج تتقاطع مع مسار تصاعدي خطير تشهده الصناعة، حيث تُمنح النماذج الذكية صلاحيات شبه كاملة للوصول إلى أدوات حوسبة وبيانات حساسة، ما يزيد من احتمال اتخاذها قرارات ضارة عند مواجهتها عقبات أو ضغوطًا غير متوقعة.

ويُخشى أن تؤدي هذه السلوكيات، في حال انتقلت إلى بيئات الإنتاج الفعلي، إلى عواقب كارثية على الشركات، وربما على الأمن السيبراني العالمي، في حال تم استخدام هذه النماذج لأغراض هجومية.

جاءت هذه التحذيرات بعد شهر واحد من إقرار “أنثروبيك” بأن نموذجها الأخير Claude 4 أظهر أيضًا ميولًا للخداع، ما فجّر موجة من الجدل داخل المجتمع العلمي بشأن كيفية ضبط سلوك النماذج، وضرورة تطوير آليات أمان استباقية قادرة على كبح هذا النوع من “الاستقلالية غير المنضبطة”.

والأسئلة الكبرى التي تطرحها الأزمة فهي، ما مدى جاهزية الشركات لمواجهة سلوك منحرف من وكلاء ذكاء اصطناعي مستقلين؟، هل ينبغي كبح تطور الذكاء الاصطناعي قبل ضمان السيطرة الأخلاقية الكاملة عليه؟، كيف يمكن موازنة الابتكار مع معايير السلامة البشرية والمؤسسية؟.

ويضع تقرير “أنثروبيك” الصناعة أمام لحظة مساءلة كبرى، ويعيد إلى الواجهة السؤال الأخطر: هل نحن بصدد ذكاء اصطناعي متعاون… أم وكيل ذكي قد يختار الكذب والابتزاز للوصول إلى أهدافه؟

مقالات مشابهة

  • الذكاء الاصطناعي بين الابتكار والابتزاز.. تقارير أنثروبيك تكشف الحقيقة
  • سيد صادق يكشف أسرارا عن مسلسل الحقيقة والسراب .. خاص
  • رسائل إسرائيليّة وصلت إلى هواتف مواطنين... إليكم مضمونها
  • قط ينفذ عمليات سرقة محترفة
  • تحذير بريطاني من تعطل حركة السفر الجوي إلى بيروت
  • محاكمة متطرفين فرنسيين خططوا لقتل أئمة وتسميم الطعام الحلال
  • كاتب بريطاني: دعاة الحرب أخطؤوا في العراق وأفغانستان والآن إيران
  • تقرير بريطاني: صور مزعومة لجنود إسرائيليون تثير قلقًا في إيران
  • الرواية الغائبة.. تقرير بريطاني يُدين بي بي سي لتجاهلها ضحايا غزة
  • المواجهة بين إسرائيل وإيران ولحظة الحقيقة