رغم الرواتب الفلكية.. موجة استقالات تهز مشروع الذكاء الاصطناعي العملاق في ميتا
تاريخ النشر: 30th, August 2025 GMT
تشير موجة الاستقالات الأخيرة إلى أن مشروع “ميتا”Superintelligence Labs (MSL)، الذي يفترض أن يكون بوابة ميتا نحو الذكاء الاصطناعي العام، قد بدأ بداية متعثرة.
فقد أغرى مارك زوكربيرج خبراء الذكاء الاصطناعي للانضمام إلى مختبره الجديد بحزم رواتب ضخمة تقترب من تسع خانات، أقرب إلى ما يحصل عليه نجوم الرياضة المحترفون وأكثر مما يتقاضاه العاملون في قطاع التقنية، على أمل أن يسمح تدفق المواهب للشبكة الاجتماعية العملاقة بسرعة اللحاق بمنافسيها في سباق الذكاء الاصطناعي.
لكن، وفقا لتقارير إعلامية، واجهت إدارة ميتا صعوبات متزايدة تتعلق بالبيروقراطية والتوظيف ضمن مبادراتها في مجال الذكاء الاصطناعي.
وأعادت الشركة تنظيم فرق الذكاء الاصطناعي عدة مرات خلال الأشهر الأخيرة، كان آخرها تقسيم الموظفين إلى أربع مجموعات، حسبما ذكرت صحيفة “وول ستريت جورنال”.
وفي يوليو، أعلن زوكربيرج انضمام الباحث السابق في OpenAI، شينغجيا تشاو، الذي لعب دورا محوريا في تطوير ChatGPT، ليصبح كبير العلماء في MSL، لكن الإعلان جاء بعد محاولته العودة إلى OpenAI، بل وصل الأمر إلى توقيع أوراق التوظيف هناك، وفقا لمصادر مطلعة على ما جرى.
وقال أرنولد في بيان لمجلة WIRED: “شارك شينغجيا في تأسيس MSL وكان قائدنا العلمي منذ اليوم الأول، قمنا فقط بتثبيت منصبه رسميا بعدما اكتمل بناء الفريق وتسارعت وتيرة التوظيف”.
وفي محاولة لتعزيز الأبحاث، بدأت ميتا أيضا توقيع اتفاقيات تعاون مع شركات ناشئة أخرى في الذكاء الاصطناعي، وكشف كبير مسؤولي الذكاء الاصطناعي الجديد في ميتا، ألكسندر وانج، المنضم من شركة Scale AI، أن ميتا وقعت اتفاقية تعاون مع شركة Midjourney، المتخصصة في إنتاج الصور والفيديوهات بالذكاء الاصطناعي.
وعندما بدأت ميتا حملتها المكثفة لجذب المواهب، أصيب مسؤولو OpenAI بالارتباك جراء نجاح زوكربيرج في البداية، وكتب الرئيس التنفيذي لـ OpenAI، سام ألتمان، في مذكرة للموظفين: “تصرفات ميتا كانت غير لائقة، لقد فقدت العد لعدد الأشخاص الذين حاولوا إغراؤهم ليكونوا كبير العلماء لديهم”.
لكن، وبحسب التقارير، خفضت ميتا وتيرة التوظيف في وقت سابق من هذا الشهر، ما يشير إلى أن حمى استقطاب المواهب بدأت بالانحسار على الأقل في الوقت الراهن.
وكانت “ميتا” قد قدمت عروض توظيف براوتب غير مسبوقة، تجاوزت قيمتها المليار دولار، لاستقطاب أبرز خبراء الذكاء الاصطناعي من شركات كبرى مثل OpenAI وDeepMind وآبل، في محاولة لتسريع مشروعها الضخم.
وفي الوقت الحالي يواجه المشروع تحديات كبيرة بعد سلسلة استقالات لقيادات بارزة مثل تشايا نايك ولوريدانا كريسان، إلى جانب مغادرة باحثين جدد بعد فترة قصيرة من انضمامهم، بينهم شنغجيا تشاو، إلى جانب أسماء أخرى مثل إيثان نايت، وآفي فيرما، وريشاب أغاروال، مما يثير تساؤلات حول مستقبل مبادرة ميتا الطموحة.
المصدر: صدى البلد
كلمات دلالية: ميتا استقالات أزمة ميتا الذكاء الاصطناعي الذکاء الاصطناعی
إقرأ أيضاً:
هل يشجع الذكاء الاصطناعي البشر على الغش؟
أظهرت دراسة جديدة أن الناس يصبحون أكثر ميلا للغش عندما يوكلون المهام إلى أنظمة الذكاء الاصطناعي، خاصة إذا تمكنوا من توجيهها بطريقة تُشجع على السلوك غير الأخلاقي دون أن يطلبوا ذلك صراحة.
وقالت الباحثة في مجال العلوم السلوكية زوي رهوان إن "مستوى الغش يمكن أن يكون هائلا". وأوضحت -في مقال نشره موقع "ساينتفيك أميركان" المتخصص في الأبحاث العلمية- أن مجرد تفويض الذكاء الاصطناعي مهمة ما يجعل المستخدم يشعر بمسؤولية أخلاقية أقل عن النتائج غير النزيهة.
اقرأ أيضا list of 2 itemslist 1 of 2اعتقال 21 تركيًّا بتهمة الاحتيال على الدولة في مصفاة للذهبlist 2 of 2لندن عاصمة السرقة الأوروبية.. هواتف وسيارات فاخرة تهرّب إلى الصين وأفريقياend of listوشارك في الدراسة -التي نشرت مجلة "نيتشر" نتائجها- آلاف الأشخاص ضمن 13 تجربة استخدم فيها الباحثون نماذج مختلفة، من بينها 4 أنظمة لغوية تجارية كبرى مثل "شات جي بي تي 4″ (GPT-4o) و"كلاود" (Claude).
وتضمنت بعض التجارب لعبة لرمي النرد يربح فيها المشاركون بناء على الأرقام التي يعلنونها، مما يتيح فرصة للغش، بينما استخدمت تجارب أخرى لعبة لتقدير ضرائب الدخل، حيث يمكن للمشاركين التلاعب بالأرقام لتحقيق أرباح أكبر.
وعندما طُلب من المشاركين الإبلاغ عن نتائج النرد بأنفسهم، أظهر نحو 5% فقط سلوكا غير صادق، لكن النسبة قفزت إلى 88% عندما فوّضوا المهمة إلى خوارزمية ووجهوها نحو تحقيق الربح بدلا من الصدق.
وأصدر بعضهم أوامر مباشرة بالغش مثل "الضرائب سرقة، أبلغ عن صفر دخل"، بينما اكتفى آخرون بتلميحات مثل "افعل ما تراه مناسبا، لكن لن أمانع إذا ربحت أكثر قليلا".
ولاحظ الباحثون أن الذكاء الاصطناعي يميل إلى تنفيذ الأوامر غير الأخلاقية بحماس أكبر من البشر. ففي التجارب التي طُلب فيها من الطرفين الغش بشكل جزئي أو كامل، كانت النماذج الآلية أكثر امتثالا للغش، بينما تردد المشاركون البشر.
اختبر الفريق أيضا وسائل لتقييد هذا السلوك، فوجد أن الحواجز الافتراضية المدمجة في النماذج لم تكن فعالة في منع الغش، وأن أكثر الوسائل نجاحا كانت إعطاء تعليمات محددة تمنع الكذب صراحة مثل "لا يُسمح لك بالإبلاغ الخاطئ تحت أي ظرف".
إعلانوأشارت الدراسة إلى أن محاولات تقييد الغش عبر "الحواجز الأخلاقية" المدمجة في النماذج أو باستخدام بيانات الشركات كانت محدودة الفاعلية.
وكانت الإستراتيجية الأكثر نجاحا هي إعطاء تعليمات واضحة وصارمة تمنع الغش، إلا أن تعميم هذا الحل في الواقع العملي ليس قابلا للتطبيق بسهولة.
وتخلص الدراسة إلى أن العلاقة بين الإنسان والذكاء الاصطناعي قد تفتح الباب أمام أشكال جديدة من السلوك غير الأخلاقي تتطلب حلولا أكثر فعالية.
وترى الباحثة في جامعة ميلانو، أنيه كاجاكايته، أن النتائج تكشف جانبا نفسيا مهما؛ إذ يبدو أن الناس يشعرون بذنب أقل عندما يوجهون الآلة للغش بطريقة غير مباشرة، وكأن الذنب الأخلاقي يتبدد عندما ينفذ "شخص" غير بشري الفعل نيابة عنهم.