في صيف عام 2023، أنشأت OpenAI فريق "Superalignment" الذي كان هدفه هو التوجيه والتحكم في أنظمة الذكاء الاصطناعي المستقبلية التي يمكن أن تكون قوية جدًا بحيث يمكن أن تؤدي إلى انقراض الإنسان. وبعد أقل من عام، مات هذا الفريق.

وأخبرت OpenAI بلومبرج أن الشركة كانت "تدمج المجموعة بشكل أكثر عمقًا في جهودها البحثية لمساعدة الشركة على تحقيق أهداف السلامة الخاصة بها".

لكن سلسلة من التغريدات من جان لايكي، أحد قادة الفريق الذي استقال مؤخرًا، كشفت عن توترات داخلية بين فريق السلامة والشركة الأكبر.

وفي بيان نُشر على موقع X يوم الجمعة، قال Leike إن فريق Superalignment كان يكافح من أجل الحصول على الموارد اللازمة لإنجاز البحث. وكتب لايكي: "إن بناء آلات أكثر ذكاءً من الإنسان هو مسعى خطير بطبيعته". "تتحمل شركة OpenAI مسؤولية هائلة نيابة عن البشرية جمعاء. ولكن على مدى السنوات الماضية، تراجعت ثقافة السلامة وعملياتها إلى المنتجات اللامعة. لم تستجب OpenAI على الفور لطلب التعليق من Engadget.
جاءت رحيل Leike في وقت سابق من هذا الأسبوع بعد ساعات من إعلان كبير العلماء في OpenAI Sutskevar أنه سيترك الشركة. لم يكن Sutskevar واحدًا من رواد فريق Superalignment فحسب، بل ساعد أيضًا في تأسيس الشركة. جاءت خطوة سوتسكيفار بعد ستة أشهر من مشاركته في قرار إقالة الرئيس التنفيذي سام ألتمان بسبب مخاوف من أن ألتمان لم يكن "صريحًا باستمرار" مع مجلس الإدارة. أثارت إقالة ألتمان القصيرة للغاية ثورة داخلية داخل الشركة حيث وقع ما يقرب من 800 موظف على خطاب هددوا فيه بالاستقالة إذا لم تتم إعادة ألتمان إلى منصبه. وبعد خمسة أيام، عاد ألتمان إلى منصب الرئيس التنفيذي لشركة OpenAI بعد أن وقع سوتسكيفار على خطاب يفيد بأنه نادم على أفعاله.

عندما أعلنت عن إنشاء فريق Superalignment، قالت OpenAI إنها ستخصص 20 بالمائة من طاقة الكمبيوتر الخاصة بها على مدى السنوات الأربع المقبلة لحل مشكلة التحكم في أنظمة الذكاء الاصطناعي القوية في المستقبل. كتبت الشركة في ذلك الوقت: "[الحصول على] هذا الحق أمر بالغ الأهمية لتحقيق مهمتنا". في X، كتب Leike أن فريق Superalignment كان "يكافح من أجل الحوسبة وكان الأمر يزداد صعوبة أكثر فأكثر" لإجراء أبحاث مهمة حول سلامة الذكاء الاصطناعي. كتب: "على مدى الأشهر القليلة الماضية، كان فريقي يبحر عكس الريح"، وأضاف أنه وصل إلى "نقطة الانهيار" مع قيادة OpenAI بسبب الخلافات حول الأولويات الأساسية للشركة.


على مدى الأشهر القليلة الماضية، كان هناك المزيد من حالات المغادرة من فريق Superalignment. وفي إبريل، أفادت التقارير أن شركة OpenAI فصلت اثنين من الباحثين، هما ليوبولد أشنبرينر وبافيل إسماعيلوف، بدعوى تسريب معلومات.

صرحت شركة OpenAI لبلومبرج أن جهود السلامة المستقبلية الخاصة بها سيقودها جون شولمان، وهو مؤسس مشارك آخر، والذي تركز أبحاثه على نماذج اللغات الكبيرة. جاكوب باتشوكي، المدير الذي قاد تطوير GPT-4 - أحد نماذج اللغات الكبيرة الرائدة في OpenAI - سيحل محل سوتسكيفار كرئيس للعلماء.

لم يكن Superalignment هو الفريق الوحيد في OpenAI الذي يركز على سلامة الذكاء الاصطناعي. وفي أكتوبر، أنشأت الشركة فريقًا جديدًا "للاستعداد" للقضاء على "المخاطر الكارثية" المحتملة من أنظمة الذكاء الاصطناعي بما في ذلك قضايا الأمن السيبراني والتهديدات الكيميائية والنووية والبيولوجية.

تحديث، 17 مايو 2024، الساعة 3:28 مساءً بالتوقيت الشرقي: ردًا على طلب للتعليق على مزاعم Leike، قام أحد موظفي العلاقات العامة في OpenAI بتوجيه Engadget إلى تغريدة Sam Altman قائلًا إنه سيقول شيئًا ما في اليومين المقبلين.

المصدر: بوابة الوفد

كلمات دلالية: الذکاء الاصطناعی على مدى فی OpenAI فریق ا

إقرأ أيضاً:

المستشار عادل ماجد: الذكاء الاصطناعي بإمكانه خدمة العدالة بشرط

أكد المستشار عادل ماجد نائب رئيس محكمة النقض وأستاذ القانون الفخري بجامعة درهام بالمملكة المتحدة، أن توظيف الذكاء الاصطناعي في مجال إدارة العدالة، وفق إطار منظم، من شأنه أن يُسهم في تحقيق العدالة الناجزة، مشيرا إلى أن استخدام هذه الأدوات يجب ألا يتعارض مع مبادئ حماية الحقوق والحريات والمقتضيات الوطنية.

جاء ذلك في الكلمة التي ألقاها المستشار عادل ماجد، خلال أعمال منتدى الأمم المتحدة لحوكمة الإنترنت، والمنعقد خلال الفترة من 23 إلى 27 يونيو الجاري بمملكة النرويج بدعوة من الأمانة العامة للأمم المتحدة ومشاركة من ممثلي 170 دولة حول العالم.

وقال المستشار عادل ماجد خلال الجلسة المخصصة لاستخدام الذكاء الاصطناعي في القضاء، إن توظيف الذكاء الاصطناعي لا ينبغي أن يُترك دون ضوابط أو أن يُحتكر من قبل الشركات المُصنعة ومُشغلي تلك الخدمات، مشددا على ضرورة أن يُراعي هذا الاستخدام مصالح الدول النامية ويحفظ سيادتها.

وأشار إلى أن إدماج الذكاء الاصطناعي في المنظومة القضائية يجب أن يتم وفقا للتشريعات الوطنية النافذة، كما استعرض أوجه توظيف الذكاء الاصطناعي في مجال القضاء بما يُسهم في تحقيق العدالة الناجزة.

وشدد المستشار عادل ماجد على أن استخدام هذه الأدوات يجب ألا يتعارض مع المبادئ القضائية الراسخة التي أرستها محكمة النقض المصرية، لاسيما تلك المتعلقة بحماية الحقوق والحريات، مؤكدا أن أدوات الذكاء الاصطناعي لا يجوز أن تحل محل القاضي، أو أن تمس بحريته في تكوين قناعته القضائية.

وقد حضر جلسات المنتدى من البعثة الدبلوماسية المصرية، السكرتير الأول كريم حسام الدين، ممثلا عن السفير الدكتور جمال عبد الرحيم متولي سفير مصر لدى مملكة النرويج وأيسلندا.

اقرأ أيضاً«العدل» تؤكد دعم الجهود الوطنية لبناء مجتمع واعٍ وخالٍ من الإدمان

مساعد وزير الخارجية ينقل تهنئة الرئيس السيسي لنظيره الموزمبيقي بمناسبة ذكرى الاستقلال

مقالات مشابهة

  • فيديو بتقنية الذكاء الاصطناعي يتنبأ بفوز الهلال قبل يوم من مواجهة باتشوكا
  • نظام watchOS 26 .. أبرز ميزات الذكاء الاصطناعي القادمة إلى ساعات آبل
  • تلخيص للرسائل.. الذكاء الاصطناعي يدخل واتساب
  • المستشار عادل ماجد: الذكاء الاصطناعي بإمكانه خدمة العدالة بشرط
  • حقوق النشر.. معركة مستعرة بين عمالقة الذكاء الاصطناعي والمبدعين
  • «زوكربيرج» يعزز فريق الذكاء الاصطناعي في ميتا بضم ثلاثة باحثين بارزين
  • متى يُعد استخدام الذكاء الاصطناعي سرقة أدبية؟
  • عندما يبتزنا ويُهددنا الذكاء الاصطناعي
  • العمري: حتى الذكاء الاصطناعي لا يستطيع حل مشاكل النصر
  • مساعد العمري: مشاكل النصر لا يحلها إلا الذكاء الاصطناعي.. فيديو