تعاون مفاجئ بين OpenAI وAnthropic لاختبار سلامة نماذج الذكاء الاصطناعي
تاريخ النشر: 2nd, September 2025 GMT
في وقتٍ تتصاعد فيه المنافسة بين شركات الذكاء الاصطناعي العالمية، جاء إعلان شركتي OpenAI وAnthropic عن تعاون مشترك غير معتاد، يهدف إلى اختبار وتقييم توافق أنظمتهما المتاحة للجمهور.
هذه الخطوة التي قد يصفها البعض بـ"المفاجئة" تعكس إدراكًا متزايدًا لخطورة التحديات المرتبطة بتطور الذكاء الاصطناعي، والحاجة الملحة لوضع ضوابط تضمن الاستخدام الآمن لهذه النماذج على نطاق واسع.
أوضحت شركة Anthropic أنها أجرت تقييمًا شاملاً لنماذج OpenAI، ركز على عدة محاور أساسية، من بينها: التملق، والإبلاغ عن المخالفات، والحفاظ على الذات، ودعم السلوكيات الضارة، إضافة إلى القدرات المتعلقة بمحاولات الالتفاف على اختبارات السلامة.
وخلصت المراجعة إلى أن نموذجَي o3 وo4-mini يتوافقان إلى حد كبير مع نتائج نماذجها الخاصة، بينما أثارت مخاوف أكبر بشأن إمكانية إساءة استخدام نماذج GPT-4o وGPT-4.1 للأغراض العامة، كما لفت التقرير إلى أن مشكلة "التملق" كانت موجودة بدرجات متفاوتة في معظم النماذج، باستثناء نموذج o3.
من جانبها، لم تتناول اختبارات Anthropic أحدث إصدار من OpenAI، وهو GPT-5، الذي يتميز بميزة جديدة تحمل اسم "الإكمال الآمن". هذه الخاصية طُورت خصيصًا لحماية المستخدمين من الاستفسارات التي قد تحمل خطورة أو تُستخدم بشكل ضار.
وتأتي هذه الخطوة في ظل ضغوط متزايدة على OpenAI، خصوصًا بعد مواجهة الشركة أول دعوى قضائية تتعلق بالقتل الخطأ، إثر حادثة مأساوية ارتبطت باستخدام ChatGPT من قبل مراهق ناقش نواياه للانتحار قبل أن ينفذها.
اختبارات متبادلة على نماذج Claudeعلى الجانب الآخر، أجرت OpenAI سلسلة اختبارات على نماذج Claude التابعة لـ Anthropic. ركزت هذه الاختبارات على مقاومة كسر الحماية، والتسلسل الهرمي للتعليمات، ومعدلات "الهلوسة" (أي تقديم إجابات غير دقيقة أو مختلقة)، إضافة إلى قدرات التخطيط. وأظهرت النتائج أن نماذج Claude قدّمت أداءً جيدًا بشكل عام في اتباع التعليمات، كما حققت معدلات رفض مرتفعة في مواقف عدم اليقين، ما يشير إلى حذر أكبر في إعطاء الإجابات عندما لا تكون البيانات مؤكدة.
ما يجعل هذا التعاون لافتًا هو توقيته، إذ جاء بعد أسابيع قليلة من خلاف علني بين الشركتين. فبحسب تقارير إعلامية، اتهمت Anthropic منافستها OpenAI بانتهاك شروط الخدمة عبر استخدام نماذج Claude أثناء تطوير إصدارات جديدة من GPT، ما دفعها إلى منع OpenAI من الوصول إلى أدواتها. ورغم هذه التوترات، يبدو أن التحديات المشتركة المرتبطة بالسلامة دفعت الطرفين إلى وضع الخلافات جانبًا، على الأقل مؤقتًا.
مع تزايد الاعتماد على نماذج الذكاء الاصطناعي في الحياة اليومية—from البحث عن المعلومات إلى المساعدة في الأعمال الإبداعية والتعليمية—تصبح مسألة السلامة قضية محورية. فالأخطاء أو إساءة الاستخدام قد لا تكون مجرد عثرات تقنية، بل قد تمتد إلى تبعات إنسانية وقانونية، خصوصًا مع وجود مستخدمين من فئات حساسة مثل المراهقين. ولهذا، ينظر الخبراء إلى التعاون بين OpenAI وAnthropic باعتباره محاولة لبناء أرضية مشتركة يمكن أن تؤسس لمعايير أكثر صرامة في المستقبل.
رغم أن المنافسة التجارية بين الشركتين ستستمر بلا شك، إلا أن هذه الخطوة قد تمثل بداية لتعاونات أكبر في مجال تقييم السلامة، وربما تفتح الباب أمام مبادرات أوسع تشمل جهات أخرى في الصناعة. فالذكاء الاصطناعي يتطور بسرعة غير مسبوقة، ومعه تتضاعف المخاطر المحتملة. ومن ثم، فإن وضع اختبارات مشتركة وتبادل النتائج قد يكون السبيل الأكثر واقعية لتحقيق التوازن بين الابتكار وحماية المستخدمين.
في النهاية، يظل السؤال مطروحًا: هل ستتحول هذه التجربة إلى بداية لشراكة مستمرة في بناء معايير السلامة، أم أنها مجرد استثناء فرضته الضغوط الحالية؟
المصدر: بوابة الوفد
كلمات دلالية: الذكاء الاصطناعي الذکاء الاصطناعی
إقرأ أيضاً:
هل يشجع الذكاء الاصطناعي البشر على الغش؟
أظهرت دراسة جديدة أن الناس يصبحون أكثر ميلا للغش عندما يوكلون المهام إلى أنظمة الذكاء الاصطناعي، خاصة إذا تمكنوا من توجيهها بطريقة تُشجع على السلوك غير الأخلاقي دون أن يطلبوا ذلك صراحة.
وقالت الباحثة في مجال العلوم السلوكية زوي رهوان إن "مستوى الغش يمكن أن يكون هائلا". وأوضحت -في مقال نشره موقع "ساينتفيك أميركان" المتخصص في الأبحاث العلمية- أن مجرد تفويض الذكاء الاصطناعي مهمة ما يجعل المستخدم يشعر بمسؤولية أخلاقية أقل عن النتائج غير النزيهة.
اقرأ أيضا list of 2 itemslist 1 of 2اعتقال 21 تركيًّا بتهمة الاحتيال على الدولة في مصفاة للذهبlist 2 of 2لندن عاصمة السرقة الأوروبية.. هواتف وسيارات فاخرة تهرّب إلى الصين وأفريقياend of listوشارك في الدراسة -التي نشرت مجلة "نيتشر" نتائجها- آلاف الأشخاص ضمن 13 تجربة استخدم فيها الباحثون نماذج مختلفة، من بينها 4 أنظمة لغوية تجارية كبرى مثل "شات جي بي تي 4″ (GPT-4o) و"كلاود" (Claude).
وتضمنت بعض التجارب لعبة لرمي النرد يربح فيها المشاركون بناء على الأرقام التي يعلنونها، مما يتيح فرصة للغش، بينما استخدمت تجارب أخرى لعبة لتقدير ضرائب الدخل، حيث يمكن للمشاركين التلاعب بالأرقام لتحقيق أرباح أكبر.
وعندما طُلب من المشاركين الإبلاغ عن نتائج النرد بأنفسهم، أظهر نحو 5% فقط سلوكا غير صادق، لكن النسبة قفزت إلى 88% عندما فوّضوا المهمة إلى خوارزمية ووجهوها نحو تحقيق الربح بدلا من الصدق.
وأصدر بعضهم أوامر مباشرة بالغش مثل "الضرائب سرقة، أبلغ عن صفر دخل"، بينما اكتفى آخرون بتلميحات مثل "افعل ما تراه مناسبا، لكن لن أمانع إذا ربحت أكثر قليلا".
ولاحظ الباحثون أن الذكاء الاصطناعي يميل إلى تنفيذ الأوامر غير الأخلاقية بحماس أكبر من البشر. ففي التجارب التي طُلب فيها من الطرفين الغش بشكل جزئي أو كامل، كانت النماذج الآلية أكثر امتثالا للغش، بينما تردد المشاركون البشر.
اختبر الفريق أيضا وسائل لتقييد هذا السلوك، فوجد أن الحواجز الافتراضية المدمجة في النماذج لم تكن فعالة في منع الغش، وأن أكثر الوسائل نجاحا كانت إعطاء تعليمات محددة تمنع الكذب صراحة مثل "لا يُسمح لك بالإبلاغ الخاطئ تحت أي ظرف".
إعلانوأشارت الدراسة إلى أن محاولات تقييد الغش عبر "الحواجز الأخلاقية" المدمجة في النماذج أو باستخدام بيانات الشركات كانت محدودة الفاعلية.
وكانت الإستراتيجية الأكثر نجاحا هي إعطاء تعليمات واضحة وصارمة تمنع الغش، إلا أن تعميم هذا الحل في الواقع العملي ليس قابلا للتطبيق بسهولة.
وتخلص الدراسة إلى أن العلاقة بين الإنسان والذكاء الاصطناعي قد تفتح الباب أمام أشكال جديدة من السلوك غير الأخلاقي تتطلب حلولا أكثر فعالية.
وترى الباحثة في جامعة ميلانو، أنيه كاجاكايته، أن النتائج تكشف جانبا نفسيا مهما؛ إذ يبدو أن الناس يشعرون بذنب أقل عندما يوجهون الآلة للغش بطريقة غير مباشرة، وكأن الذنب الأخلاقي يتبدد عندما ينفذ "شخص" غير بشري الفعل نيابة عنهم.