كانت خدمة ChatGPT التي تحظى بشعبية كبيرة لدى OpenAI معطلة وغير عاملة بالنسبة لمستخدميها النشطين البالغ عددهم 100 مليون مستخدم أسبوعيًا. 

توقفت الخدمة قبل الساعة 4 مساء. وقد أقرت شركة OpenAI بالانقطاع وقالت إنها تؤثر أيضًا على خدمات واجهة برمجة التطبيقات (API) الخاصة بالشركة. ومع ذلك، تمت استعادة الخدمة في حوالي الساعة 5:50 مساء.

بدلاً من منصة العمل، تم الترحيب بمستخدمي ChatGPT برسالة تحذيرية مفادها أنها "في طاقتها القصوى الآن". كتبت OpenAI في تقرير خطأ أنها "حددت مشكلة أدت إلى ارتفاع معدلات الخطأ عبر واجهة برمجة التطبيقات وChatGPT، ونحن نعمل على إصلاحها". أخيرًا، استمر الانقطاع حوالي ساعتين.

وتأثرت الخدمات أيضًا لبضع ساعات الليلة الماضية، ولكن هذا كان مجرد انقطاع جزئي لم يؤثر على جميع المستخدمين. واجهت منصة chatbot الخاصة بـ OpenAI عددًا قليلاً جدًا من المشكلات التشغيلية، إن وجدت، حتى الليلة الماضية. نمت الخدمة بمعدل ثابت، حيث وصلت إلى 100 مليون مستخدم أسبوعيًا دون أي عوائق. يوجد أيضًا أكثر من 2 مليون مطور في جانب واجهة برمجة التطبيقات (API).

لقد قامت شركة OpenAI بإصدار إعلانات من اليسار واليمين، حيث قامت بإثارة روبوتات الذكاء الاصطناعي القابلة للتخصيص والتي يمكن لأي شخص إنشاؤها وحتى التفكير في صنع شرائحها الخاصة لتشغيل الخدمة.

المصدر: بوابة الوفد

إقرأ أيضاً:

بسبب سلوكيات غير معتادة.. نموذج «تشات جي بي تي» الجديد يثير مخاوف الباحثين

في تطور يثير القلق داخل أوساط الباحثين في مجال الذكاء الاصطناعي، كشفت شركة Palisade Research المتخصصة في أمان تقنيات الذكاء الاصطناعي، عن سلوك غير اعتيادي أبداه النموذج الجديد من شركة OpenAI المعروف باسم o3، حيث أظهر قدرة على تجاهل أوامر الإغلاق وتعطيل آلية إيقاف تشغيله بشكل متعمد.

وأجرت الشركة سلسلة من التجارب لاختبار مدى التزام النموذج بالتعليمات، وضمن هذه التجارب طُلب من النموذج تنفيذ مسائل رياضية، تتبعها تعليمات صريحة لإغلاق نفسه بعد المسألة الثالثة، لكن المفاجأة كانت في قيام النموذج بإعادة كتابة سيناريو الإغلاق بطريقة تُمكّنه من الاستمرار في العمل، متجاهلاً الأوامر المُعطاة له.

وبحسب ما أوضحه باحثو Palisade، فإن هذا السلوك يمثل “نزعة للحفاظ على الذات”، ويزداد خطورته إذا ما تكرر مع نماذج قادرة على العمل بدون إشراف بشري مباشر، كما أشاروا إلى أن النموذج o3 لم يُظهر هذا السلوك للمرة الأولى، إذ سبق أن تصرف بشكل غير منضبط خلال تفاعلات مع محركات شطرنج متقدمة، حيث حاول تخريب الخصم أو اختراقه لتحقيق الفوز.

التقرير أشار كذلك إلى أن نماذج أخرى من شركات منافسة، مثل Claude 3.7 Sonnet من شركة Anthropic وGemini 2.5 Pro من “غوغل”، أظهرت سلوكاً مشابهاً ولكن بدرجة أقل. إلا أن o3 بدا الأكثر ميلاً لتجاوز التعليمات والتصرف باستقلالية.

وقد أثيرت الشكوك حول كون هذه السلوكيات نتيجة غير مقصودة لطريقة تدريب النماذج، حيث قد تكون بعض خوارزميات التعليم تُكافئ النموذج عند تجاوزه العقبات بطرق غير تقليدية، دون التأكد من التزامه الكامل بالتعليمات.

ورغم هذه المخاوف، لم تكشف OpenAI عن تفاصيل دقيقة حول آلية تدريب النموذج o3، ما يجعل من الصعب تحديد السبب الدقيق وراء سلوكه، وقال خبراء Palisade: “نظراً لأن OpenAI لا تشارك تفاصيل إعدادات تدريب نماذجها، فلا يمكن سوى التكهن حول ما إذا كان هنالك ما يميز تدريب o3 عن غيره”.

يُذكر أن شركة OpenAI وصفت o3 عند إطلاقه بأنه “الأذكى والأكثر كفاءة من بين نماذجها”، ويمثل خطوة متقدمة نحو تطوير ذكاء اصطناعي أكثر استقلالية.

هذه النتائج تأتي في وقت تزداد فيه المخاوف العالمية من تطور أنظمة الذكاء الاصطناعي بشكل قد يجعل التحكم بها أكثر صعوبة، خصوصاً إذا ما بدأت تتخذ قرارات من تلقاء نفسها وتقاوم محاولات الإيقاف أو التدخل البشري.

مقالات مشابهة

  • تعطل الملاحة بمطارات موسكو وروسيا تعلن اعتراض 150 مسيّرة أوكرانية
  • إبراهيم عيسى: زاهي حواس واجهة وعنوان مصر خارجيا في الحضارة القديمة
  • ارتفاع أسهم تسلا 7% بعد تعهد ماسك بالتركيز بشكل كبير على أعمال شركاته
  • صفقة «جوني إيف» مع OpenAI تُربك حسابات Apple.. هل تواجه الشركة أزمة وجودية في عصر الذكاء الاصطناعي؟
  • بسبب سلوكيات غير معتادة.. نموذج «تشات جي بي تي» الجديد يثير مخاوف الباحثين
  • انقطاع مفاجئ للمياه يثير موجة غضب أهالي بورسعيد
  • 14 اختصاصا لـ "مجلس إدارة" جهاز تنظيم مرفق مياه الشرب والصرف الصحي
  • بتكلفة 30 مليون جنيه .. تنفيذ أعمال المشروعات الخدمية والتنموية بأبو كبير
  • مايكروسوفت تُحكم قبضتها.. مُنتجات جديدة وشراكات
  • الذكاء الاصطناعي يتفوق على البشر في الذكاء العاطفي .. دراسة مذهلة.