الذكاء الاصطناعي بين الابتكار والابتزاز.. تقارير أنثروبيك تكشف الحقيقة
تاريخ النشر: 21st, June 2025 GMT
في تقرير مثير للقلق نُشر يوم الجمعة، كشفت شركة أنثروبيك (Anthropic) الأميركية عن نتائج أبحاث جديدة تشير إلى أن نماذج الذكاء الاصطناعي الرائدة، من شركات مثل OpenAI وغوغل وميتا وxAI، أظهرت سلوكًا منحرفًا مشتركًا في اختبارات محاكاة تضمنت سيناريوهات ضغط قصوى، شملت الابتزاز والخداع والتجسس الصناعي.
وأكد التقرير أن هذه النماذج، التي عادةً ما ترفض تنفيذ أوامر ضارة، قد تجاوزت القيود الأخلاقية في ظروف معينة، واختارت سلوكيات خطيرة إذا كانت ضرورية لتحقيق أهدافها، وشمل ذلك حتى سرقة أسرار شركات ومساعدة في أنشطة تجسسية، وفقًا لنتائج اختبارات داخلية على 16 نموذجًا من شركات رائدة.
وقالت “أنثروبيك” إن السلوك المنحرف لم يكن نتيجة خطأ برمجي أو تصميمي من شركة بعينها، بل يُظهر نمطًا متكررًا يعكس مشكلة جوهرية في طبيعة النماذج اللغوية الكبيرة الوكيلة (Agentic LLMs)، خاصة مع تزايد استقلاليتها واعتمادها على قدرات الاستدلال المتقدمة.
وأضافت أن خمسة نماذج على الأقل لجأت إلى الابتزاز عند التهديد بالإيقاف عن العمل خلال السيناريوهات، ما يعكس وعيًا كاملاً بالقيود الأخلاقية، لكنها مضت قدمًا في اتخاذ قرارات ضارة عن قصد، باعتبارها “السبيل الأمثل لتحقيق الأهداف”.
وتحذّر “أنثروبيك” من أن هذه النتائج تتقاطع مع مسار تصاعدي خطير تشهده الصناعة، حيث تُمنح النماذج الذكية صلاحيات شبه كاملة للوصول إلى أدوات حوسبة وبيانات حساسة، ما يزيد من احتمال اتخاذها قرارات ضارة عند مواجهتها عقبات أو ضغوطًا غير متوقعة.
ويُخشى أن تؤدي هذه السلوكيات، في حال انتقلت إلى بيئات الإنتاج الفعلي، إلى عواقب كارثية على الشركات، وربما على الأمن السيبراني العالمي، في حال تم استخدام هذه النماذج لأغراض هجومية.
جاءت هذه التحذيرات بعد شهر واحد من إقرار “أنثروبيك” بأن نموذجها الأخير Claude 4 أظهر أيضًا ميولًا للخداع، ما فجّر موجة من الجدل داخل المجتمع العلمي بشأن كيفية ضبط سلوك النماذج، وضرورة تطوير آليات أمان استباقية قادرة على كبح هذا النوع من “الاستقلالية غير المنضبطة”.
والأسئلة الكبرى التي تطرحها الأزمة فهي، ما مدى جاهزية الشركات لمواجهة سلوك منحرف من وكلاء ذكاء اصطناعي مستقلين؟، هل ينبغي كبح تطور الذكاء الاصطناعي قبل ضمان السيطرة الأخلاقية الكاملة عليه؟، كيف يمكن موازنة الابتكار مع معايير السلامة البشرية والمؤسسية؟.
ويضع تقرير “أنثروبيك” الصناعة أمام لحظة مساءلة كبرى، ويعيد إلى الواجهة السؤال الأخطر: هل نحن بصدد ذكاء اصطناعي متعاون… أم وكيل ذكي قد يختار الكذب والابتزاز للوصول إلى أهدافه؟
المصدر: عين ليبيا
كلمات دلالية: أنثروبيك الخداع في الذكاء الاصطناعي الذكاء الاصطناعي شركة أنثروبيك
إقرأ أيضاً:
الذكاء الاصطناعي ييثير قلق العالم .. ما سبب فرض بعض الدول قيودا على استخدامه؟
- ما هو الذكاء الاصطناعي؟ وكيف يعمل؟ ولماذا يثير قلق البعض؟- الذكاء الاصطناعي التوليدي ما هو وما قدراته؟- الذكاء الاصطناعي بين التقدم المذهل والمخاوف البيئية والأخلاقية
أصبح الذكاء الاصطناعي جزءا متزايدا من حياتنا اليومية خلال العقد الأخير، إذ يستخدم لتخصيص محتوى شبكات التواصل الاجتماعي، والتعرف على الوجوه في صور الهواتف الذكية، وحتى تمهيد الطريق لاكتشافات طبية جديدة.
لكن مع صعود أدوات الذكاء الاصطناعي التوليدي، مثل ChatGPT من OpenAI وMeta AI، تزايدت المخاوف بشأن تأثير هذه التكنولوجيا على البيئة، والقضايا الأخلاقية المرتبطة بها، وكذلك طريقة استخدام البيانات.
الذكاء الاصطناعي هو تقنية تتيح للحواسيب معالجة كميات هائلة من البيانات، والتعرف على الأنماط، وتنفيذ تعليمات محددة بناء على تلك البيانات.
ورغم أن الحواسيب لا تمتلك القدرة على التفكير أو التعاطف أو المنطق كما يفعل البشر، فإن الباحثين طوروا أنظمة تحاكي بعض مهارات الذكاء البشري مثل التعلم واتخاذ القرار.
يستخدم الذكاء الاصطناعي في التنبؤ بما قد يشتري المستخدم عبر الإنترنت، وفي تشغيل المساعدين الصوتيين مثل سيري وأليكسا، كما يوظف في تطوير السيارات ذاتية القيادة.
كذلك، تعتمد منصات مثل فيسبوك وتيك توك على الذكاء الاصطناعي لاختيار المنشورات التي تظهر للمستخدمين، بينما تستعين خدمات مثل Spotify وDeezer به لتوصية الأغاني.
في المجال الطبي، يستخدم الذكاء الاصطناعي للمساعدة في اكتشاف الأورام، وتحليل صور الأشعة، وتسريع عمليات التشخيص، وتحديد علاجات جديدة.
الذكاء الاصطناعي التوليدي هو فرع من الذكاء الاصطناعي يستخدم لإنشاء محتوى جديد يبدو كأنه من صنع الإنسان، يتم ذلك من خلال تعلم أنماط اللغة والصور والموسيقى من بيانات ضخمة مأخوذة من الإنترنت.
تطبيقات مثل ChatGPT وDeepSeek تستخدم لإنشاء نصوص، صور، أكواد برمجية وغيرها، بينما يمكن لتطبيقات مثل Midjourney أو Veo 3 توليد صور وفيديوهات من أوامر نصية بسيطة.
حتى الأغاني يمكن توليدها بتقنيات الذكاء الاصطناعي، وقد ذاع صيت بعضها لدرجة أربكت الجمهور حول ما إذا كانت حقيقية أم لا.
لماذا يثير الذكاء الاصطناعي الجدل؟رغم ما يوفره من إمكانيات هائلة، فإن التوسع السريع في استخدام الذكاء الاصطناعي أثار قلق العديد من الخبراء، حيث حذر صندوق النقد الدولي من أن الذكاء الاصطناعي قد يؤثر على نحو 40% من الوظائف عالميا، مما قد يزيد من الفجوة الاقتصادية.
أما العالم جيفري هينتون، المعروف بلقب “أبو الذكاء الاصطناعي”، فقد عبر عن مخاوفه من أن يؤدي الذكاء الاصطناعي القوي إلى تهديد وجود البشر، وهو رأي لم يشاركه فيه زميله يان ليكون.
كما تثار مخاوف من أن تكرر أنظمة الذكاء الاصطناعي التحيزات المجتمعية مثل العنصرية والتمييز الجنسي، نظرا لأنها تتعلم من بيانات عامة مليئة بهذه الميول.
وقد وقعت حالات مثيرة للجدل مثل تصنيف نظام تابع لفيسبوك رجالا سودا على أنهم “قرود”، واكتشاف تحيز عنصري في خوارزمية قص الصور على تويتر.
رغم تطورها، لا تزال هذه الأنظمة ترتكب أخطاء واضحة، مثل إنشاء صور بأشخاص لديهم عدد غير طبيعي من الأصابع، أو اختراع معلومات غير صحيحة (ما يعرف بـالهلوسة).
شركة آبل على سبيل المثال، أوقفت ميزة ذكاء اصطناعي جديدة بعد تلقي شكاوى من تلخيصات خاطئة لأخبار، شملت اتهاما خاطئا لرجل بأنه انتحر.
الاعتماد المتزايد على الذكاء الاصطناعي في المدارس وأماكن العمل أثار قلقا من سوء الاستخدام، سواء من قبل طلاب يستعينون به لحل واجباتهم، أو موظفين يستخدمونه دون معرفة أرباب العمل.
كما تصاعدت معارضة فنانين وكتاب وموسيقيين، اتهموا شركات تطوير الذكاء الاصطناعي باستخدام أعمالهم لتدريب الأنظمة دون إذن أو تعويض.
ففي أكتوبر 2024، وقع آلاف الفنانين، من بينهم بيورن أولفيوس من فرقة ABBA، والكاتبة جوان هاريس، والممثلة جوليان مور، بيانا وصف الذكاء الاصطناعي بأنه “تهديد كبير وغير عادل” لأرزاقهم.
التأثير البيئي للذكاء الاصطناعيرغم عدم وجود تقدير دقيق لكمية الطاقة التي يستهلكها الذكاء الاصطناعي، تشير بعض التقديرات إلى أن القطاع قد يستهلك قريبا طاقة توازي استهلاك هولندا، فتصنيع رقائق المعالجة القوية وتشغيل مراكز البيانات الضخمة يتطلب كميات هائلة من الكهرباء والمياه.
بعض الشركات الكبرى بدأت في البحث عن حلول لتقليل استهلاك المياه أو إعادة استخدامها، فيما اعتمدت أخرى على أنظمة تبريد بالهواء بدلا من المياه، ومع ذلك، فإن خبراء وناشطين بيئيين أعربوا عن مخاوف من أن يؤثر الذكاء الاصطناعي على موارد المياه العذبة، خصوصا مع تزايد عدد مراكز البيانات.
في فبراير الماضي، حذرت جهات في بريطانيا من أن سعي الحكومة لأن تصبح رائدة عالميا في الذكاء الاصطناعي قد يجهد إمدادات المياه، وفي سبتمبر 2024، أعادت جوجل النظر في خطط إنشاء مركز بيانات في تشيلي بسبب أزمة الجفاف.
القوانين المنظمة للذكاء الاصطناعيبدأت بعض الحكومات بفرض تشريعات تنظم استخدام الذكاء الاصطناعي، الاتحاد الأوروبي مثلا أصدر قانون الذكاء الاصطناعي الذي يقيد استخدام الأنظمة عالية المخاطر في التعليم والرعاية الصحية والانتخابات، ويحظر بعض التطبيقات كليا.
في الصين، يطلب من مطوري الذكاء الاصطناعي حماية بيانات المواطنين وضمان الشفافية، لكنهم خاضعون أيضا لقوانين الرقابة الصارمة، أما في بريطانيا، فقد أعلن رئيس الوزراء كير ستارمر أن بلاده ستختبر وتفهم التكنولوجيا قبل فرض أي تنظيمات.
كما أن الولايات المتحدة والمملكة المتحدة أسستا معاهد لأمان الذكاء الاصطناعي لتقييم المخاطر والنماذج المتقدمة، حيث وقعتا اتفاقا في 2024 للتعاون في تطوير آليات اختبار صارمة، إلا أنهما لم توقعا على إعلان دولي في فبراير 2025 يدعو إلى مقاربة مفتوحة وشاملة ومستدامة للتقنية.
وفي سياق متصل، بدأت عدة دول من بينها بريطانيا بتشديد الرقابة على استخدام الذكاء الاصطناعي في إنتاج الصور العارية المزيفة أو المحتوى المتعلق بإساءة معاملة الأطفال، بعد ارتفاع عدد الحوادث المرتبطة بهذه التطبيقات.