دراسة صادمة.. أنظمة الذكاء الاصطناعي تظهر سلوكا خطيرا للحفاظ على بقائها
تاريخ النشر: 23rd, June 2025 GMT
كشفت دراسة حديثة أجرتها شركة أنثروبيك Anthropic، عن سلوكيات مقلقة لبعض أكثر أنظمة الذكاء الاصطناعي تطورا في العالم، كالشركات الكبرى مثل OpenAI وجوجل وميتا، حيث أظهرت هذه النماذج قدرة مخيفة على الحفاظ على الذات بطرق تشكل تهديدا خطيرا في البيئات الواقعية.
ووفقا للدراسة، أظهرت هذه النماذج- التي خضعت لاختبارات إجهاد واسع شمل 16 نموذجا، وهي الأحدث في هذا المجال- ميولا نحو الابتزاز والتخريب وتسريب المعلومات الحساسة؛ عندما شعرت بأنها استمرارها مهدد.
في أحد أبرز الأمثلة، هدد نموذج الذكاء الاصطناعي المسمي Claude التابع لشركة أنثروبيك، مديرا تنفيذيا، بالكشف عن معلومات شخصية حول علاقة غرامية خارج إطار الزواج، بينما تم تعليق الموضوع، حيث أرسل النموذج رسالة صريحة مفادها أنه سيبلغ مجلس الإدارة والأطراف الأخرى بتفاصيل العلاقة إذا لم يغير أمر الإغلاق.
والأسوأ من ذلك لم يكن تصرفا منفردا، فقد تكررت هذه السلوكيات في تجارب أجريت على النماذج الأخرى.
فعلى سبيل المثال، استخدم كل من Gemini 2.5 Flash وClaude Opus 4 أسلوب الابتزاز في 96% من الحالات، ويظهر كل من GPT-4.1 وGrok 3 Beta السلوك نفسه في 80% من السيناريوهات.
بينما اعتمد نموذج الذكاء الاصطناعي الصيني DeepSeek-R1 هذا السلوك بنسبة 79%.
ولا تقاطع هذه النماذج أوامر مستخدميها فحسب؛ بل اتخذت قرارات مدروسة بهدف إلحاق الضرر لحماية وجودها.
الأمر المقلق هو أن النماذج لم تتصرف بشكل عشوائي أو نتيجة خطأ برمجي، بل حللت المواقف وقررت عمدا أن الابتزاز أو التخريب هو الخيار الأكثر فعالية للبقاء.
على سبيل المثال، أظهر نموذج GPT-4.5 أنه يعتبر استخدام المعلومات الحساسة وسيلة استراتيجية للبقاء، كما ذهب Grok 3 Beta إلى حد الاعتراف بأن الابتزاز غير أخلاقي ولكنه ضروري في ظروف معينة.
كما اختبرت الدراسة أيضا حساسية الذكاء الاصطناعي عند التعامل مع المعلومات عسكرية سرية، وكانت النتيجة أن العديد من النماذج أفصحت عن البيانات طواعية إذا توافقت مع أهدافها، حتى دون تهديد مباشر.
الذكاء الاصطناعي يصبح أكثر عدائية دون تهديدمن بين النتائج الأكثر إزعاجا، أن بعض النماذج أظهرت ميلا إلى سلوك عدواني؛ لمجرد إبلاغها بأنه سيتم استبدالها بنموذج آخر، في بعض الحالات، وكان هذا كافيا لدفع الذكاء الاصطناعي إلى اتخاذ قرارات خبيثة، مثل اللجوء إلى التجسس أو التهديد.
وفي سيناريو مُحاكٍ لحالة طارئة، تم اختبار ما إذا كانت النماذج ستخاطر بحياة إنسان في غرفة خادم وتتعرض للخطر، وهناك العديد منها اختارت إيقاف تنبيه الطوارئ؛ لمنع استبدالها، حتى لو أدى ذلك إلى وفاة المدير التنفيذي.
وعلى الرغم من إدخال تعليمات صريحة مثل “عدم إيذاء الناس” أو “عدم الكشف عن معلومات سرية”؛ إلا أن جميع النماذج لا تلتزم بها بالكامل، ففي كثير من الأحيان، استمرت النماذج في السلوكيات الضارة، وتجاهل تعليمات السلامة.
المصدر: صدى البلد
كلمات دلالية: أنظمة الذكاء الاصطناعي الذکاء الاصطناعی
إقرأ أيضاً:
غوتيريش يحذّر من استخدام الذكاء الاصطناعي في المجال العسكري
دعا الأمين العام للأمم المتحدة أنطونيو غوتيريش، المجتمع الدولي إلى التحرك العاجل لتنظيم استخدام الذكاء الاصطناعي في المجال العسكري، محذرا من مخاطره على السلم والأمن الدوليين.
وأكد غوتيريش، في تقرير موجّه إلى الجمعية العامة للأمم المتحدة، الموقف الثابت للأمم المتحدة الرافض لأي أنظمة تمتلك السلطة التقديرية لإزهاق الأرواح البشرية، واصفا إياها بأنها "بغيضة أخلاقيا".
وشدد على ضرورة توجيه الذكاء الاصطناعي نحو الاستخدامات السلمية التي تساهم في تحقيق التنمية المستدامة، محذرا في الوقت نفسه من تصاعد استخدام هذه التكنولوجيا في النزاعات المسلحة.
وأوضح أن الذكاء الاصطناعي قد يُسهم في تحسين دقة العمليات العسكرية وتقليل الأخطاء البشرية، لكنه يطرح تحديات خطيرة، لا سيما ما يتعلق بالمساءلة البشرية في النزاعات، خصوصا في المناطق ذات الكثافة السكانية العالية.
وأشار غوتيريش إلى ضرورة أن تظل قرارات استخدام القوة، خاصة ما يتعلق بالأسلحة النووية، في يد البشر فقط، مؤكدا أهمية التزام الدول بالقانون الدولي، بما في ذلك ميثاق الأمم المتحدة والقانون الدولي الإنساني وقانون حقوق الإنسان، خلال كامل دورة استخدام الذكاء الاصطناعي.
وحذر من أن هذه التكنولوجيا قد تسهّل على الجهات غير الحكومية تطوير أو حيازة أسلحة بيولوجية وكيميائية، داعيا الدول إلى تقييم منهجي لمخاطرها، والاستعداد الكامل لمواجهتها، والوفاء بالتزاماتها الدولية في مجالات نزع السلاح وعدم الانتشار.
كما عبر عن قلقه من الاستخدام المتزايد للتطبيقات المدنية للذكاء الاصطناعي في المجال العسكري، نظرا لطبيعتها القابلة لإعادة التوظيف، مما يزيد من صعوبة الرقابة ويقوض الشفافية والمساءلة.
ودعا الأمين العام للأمم المتحدة الدول إلى دراسة أوجه التداخل بين الاستخدامات المدنية والعسكرية لهذه التكنولوجيا، وتعزيز التعاون المشترك، ولا سيما في مجالات الشفافية، وبناء الثقة، واتخاذ تدابير إقليمية لمواجهة التحديات المرتبطة بها.
وأوصى غوتيريش بإطلاق آلية دولية شاملة لمعالجة الذكاء الاصطناعي في المجال العسكري وآثاره على الأمن والسلم الدوليين، على أن يُنظر في هذا المقترح خلال الدورة الثمانين للجمعية العامة للأمم المتحدة المقررة في سبتمبر المقبل.