في تطور يثير القلق داخل أوساط الباحثين في مجال الذكاء الاصطناعي، كشفت شركة Palisade Research المتخصصة في أمان تقنيات الذكاء الاصطناعي، عن سلوك غير اعتيادي أبداه النموذج الجديد من شركة OpenAI المعروف باسم o3، حيث أظهر قدرة على تجاهل أوامر الإغلاق وتعطيل آلية إيقاف تشغيله بشكل متعمد.

وأجرت الشركة سلسلة من التجارب لاختبار مدى التزام النموذج بالتعليمات، وضمن هذه التجارب طُلب من النموذج تنفيذ مسائل رياضية، تتبعها تعليمات صريحة لإغلاق نفسه بعد المسألة الثالثة، لكن المفاجأة كانت في قيام النموذج بإعادة كتابة سيناريو الإغلاق بطريقة تُمكّنه من الاستمرار في العمل، متجاهلاً الأوامر المُعطاة له.

وبحسب ما أوضحه باحثو Palisade، فإن هذا السلوك يمثل “نزعة للحفاظ على الذات”، ويزداد خطورته إذا ما تكرر مع نماذج قادرة على العمل بدون إشراف بشري مباشر، كما أشاروا إلى أن النموذج o3 لم يُظهر هذا السلوك للمرة الأولى، إذ سبق أن تصرف بشكل غير منضبط خلال تفاعلات مع محركات شطرنج متقدمة، حيث حاول تخريب الخصم أو اختراقه لتحقيق الفوز.

التقرير أشار كذلك إلى أن نماذج أخرى من شركات منافسة، مثل Claude 3.7 Sonnet من شركة Anthropic وGemini 2.5 Pro من “غوغل”، أظهرت سلوكاً مشابهاً ولكن بدرجة أقل. إلا أن o3 بدا الأكثر ميلاً لتجاوز التعليمات والتصرف باستقلالية.

وقد أثيرت الشكوك حول كون هذه السلوكيات نتيجة غير مقصودة لطريقة تدريب النماذج، حيث قد تكون بعض خوارزميات التعليم تُكافئ النموذج عند تجاوزه العقبات بطرق غير تقليدية، دون التأكد من التزامه الكامل بالتعليمات.

ورغم هذه المخاوف، لم تكشف OpenAI عن تفاصيل دقيقة حول آلية تدريب النموذج o3، ما يجعل من الصعب تحديد السبب الدقيق وراء سلوكه، وقال خبراء Palisade: “نظراً لأن OpenAI لا تشارك تفاصيل إعدادات تدريب نماذجها، فلا يمكن سوى التكهن حول ما إذا كان هنالك ما يميز تدريب o3 عن غيره”.

يُذكر أن شركة OpenAI وصفت o3 عند إطلاقه بأنه “الأذكى والأكثر كفاءة من بين نماذجها”، ويمثل خطوة متقدمة نحو تطوير ذكاء اصطناعي أكثر استقلالية.

هذه النتائج تأتي في وقت تزداد فيه المخاوف العالمية من تطور أنظمة الذكاء الاصطناعي بشكل قد يجعل التحكم بها أكثر صعوبة، خصوصاً إذا ما بدأت تتخذ قرارات من تلقاء نفسها وتقاوم محاولات الإيقاف أو التدخل البشري.

المصدر: عين ليبيا

كلمات دلالية: الذكاء الاصطناعي اوبن إيه آي شركة OpenAI نموذج ChatGPT

إقرأ أيضاً:

أوبن إيه آي تؤكد: الاستخدام الخاطئ للنموذج أدى لانتحار المراهق

أنكرت "أوبن إيه آي" صانعة نموذج الذكاء الاصطناعي "شات جي بي تي" مسؤوليتها عن حالات الانتحار الأخيرة التي ارتبطت بالنموذج، وتحديدا قصة آدم راين البالغ من العمر 16 عاما وفق تقرير موقع "ذا فيرج" التقني.

وأكدت الشركة أن ما حدث للمراهق آدم راين هو نتيجة استخدامه السيئ غير المصرح به لنموذج "شات جي بي تي"، واصفة الاستخدام بأنه "غير مقصود وغير متوقع وغير سليم لنموذج شات جي بي تي".

ويشير التقرير إلى أن شروط استخدام "شات جي بي تي" تمنع المراهقين من استخدام النموذج بدون وجود رقابة أبوية أو موافقة سابقة من المسؤول القانوني عن المراهق.

سياسات استخدام "شات جي بي تي" تمنع المراهقين والأطفال من استخدام النموذج (الجزيرة)

وأضافت "أوبن إيه آي" في تدوينة رسمية عبر موقعها، أن آلية تعاملها مع القضية ستتناسب مع حجم الأزمة والحساسية التي تسببها للمتضررين كونهم بشر وحياتهم الحقيقية تأثرت، ولكنها ستتخذ موقف الدفاع وستدافع عن براءتها من التهم الموجهة إليها، مؤكدة أن المحادثات التي وردت في القضية مقتطعة من سياقها الأصلي ونحتاج إلى المزيد حتى نفهم آثارها.

وتؤكد الشركة في دفاعها أن النموذج وجه راين لطلب المساعدة من الجهات المختصة أكثر من 100 مرة، لذلك فالنموذج بريء من دمه، وذلك بعد إطلاع الشركة على سجل المحادثات الموجود لديها.

ويذكر أن أسرة آدم راين وجهت تهما لشركة "أوبن إيه آي" لأنها يسرت انتحار طفلهم بسبب التصميم المتعمد لنموذج "شات جي بي تي" وهو ما رفع قيمة الشركة من 86 مليار دولار إلى 300 مليار دولار في فترة قصيرة.

مقالات مشابهة

  • 3 ملايين وظيفة مهددة بالاختفاء بسبب الذكاء الاصطناعي.. هل وظيفتك في القائمة؟
  • ما سر عشق المسافرين الباحثين عن الفخامة لجزر شرق إندونيسيا النائية؟
  • محافظ مطروح يستقبل رئيس شركة مياه الشرب الجديد ويؤكد على تحسين الخدمات
  • بي واي دي تستدعي 89 ألف سيارة هجينة بسبب مخاوف تتعلق بسلامة البطارية
  • فضيحة ألعاب الذكاء الاصطناعي.. فولوتوي تعلق المبيعات بعد تقارير خطيرة عن محتوى غير مناسب للأطفال
  • تحديث صادم من جوجل.. الحد اليومي لـ Nano Banana Pro يتراجع بشكل مفاجئ
  • خبير تكنولوجيا يحذر من فقدان ملايين الوظائف بسبب الذكاء الاصطناعي
  • نموذج ذكاء اصطناعي مجاني يتفوق على ChatGPT-5.. إليك ما يجب أن تعرفه
  • جوجل تشدد قيود Gemini 3 Pro على المستخدمين المجانيين وتدفعهم نحو خطط الذكاء الاصطناعي المدفوعة​
  • أوبن إيه آي تؤكد: الاستخدام الخاطئ للنموذج أدى لانتحار المراهق