نيويورك تايمز تقرر مقاضاة تشات جي بي تي
تاريخ النشر: 29th, December 2023 GMT
أطلقت صحيفة نيويورك تايمز دعوى قضائية ضد أوبن إيه.آي، ومايكروسوفت، واتهمتهما الأربعاء، باستخدام ملايين المقالات من الصحيفة دون إذنها، للمساعدة في تدريب تقنيات الذكاء الاصطناعي.
وقالت الصحيفة إنها أول مؤسسة إعلامية أمريكية كبرى ترفع دعوى قضائية ضد أوبن إيه.آي، ومايكروسوفت، اللتين أنشأتا تشات جي.بي.تي، ومنصات أخرى للذكاء الاصطناعي، بسبب حقوق النشر.
وأضافت أنهما تحاولان "الاستفادة مجاناً من استثمار تايمز الضخم في صحافتها باستخدامه لتأسيس منتجات بديلة دون إذن أو مقابل مادي"، وذلك وفق الشكوى لدى محكمة مانهاتن الاتحادية.
ولم تستجب الشركتان بعد لطلبات التعليق.
ولا تسعى تايمز للحصول على مبلغ محدد تعويضاً لكنها قالت إن أوبن إيه.آي ومايكروسوفت تسببتا في أضرار بمليارات الدولارات. وإنها تريد من الشركتين تدمير نماذج برامج الدردشة ومجموعات التدريب التي تتضمن موادها.
وفي حين أن الشركة الأم لأوبن إيه.آي غير ربحية، استثمرت مايكروسوفت 13 مليار دولار في شركة فرعية مقابل 49% فيها.
ويقدر المستثمرون قيمة أوبن إيه.آي بأكثر من 80 مليار دولار.
المصدر: أخبارنا
كلمات دلالية: أوبن إیه آی
إقرأ أيضاً:
بسبب سلوكيات غير معتادة.. نموذج «تشات جي بي تي» الجديد يثير مخاوف الباحثين
في تطور يثير القلق داخل أوساط الباحثين في مجال الذكاء الاصطناعي، كشفت شركة Palisade Research المتخصصة في أمان تقنيات الذكاء الاصطناعي، عن سلوك غير اعتيادي أبداه النموذج الجديد من شركة OpenAI المعروف باسم o3، حيث أظهر قدرة على تجاهل أوامر الإغلاق وتعطيل آلية إيقاف تشغيله بشكل متعمد.
وأجرت الشركة سلسلة من التجارب لاختبار مدى التزام النموذج بالتعليمات، وضمن هذه التجارب طُلب من النموذج تنفيذ مسائل رياضية، تتبعها تعليمات صريحة لإغلاق نفسه بعد المسألة الثالثة، لكن المفاجأة كانت في قيام النموذج بإعادة كتابة سيناريو الإغلاق بطريقة تُمكّنه من الاستمرار في العمل، متجاهلاً الأوامر المُعطاة له.
وبحسب ما أوضحه باحثو Palisade، فإن هذا السلوك يمثل “نزعة للحفاظ على الذات”، ويزداد خطورته إذا ما تكرر مع نماذج قادرة على العمل بدون إشراف بشري مباشر، كما أشاروا إلى أن النموذج o3 لم يُظهر هذا السلوك للمرة الأولى، إذ سبق أن تصرف بشكل غير منضبط خلال تفاعلات مع محركات شطرنج متقدمة، حيث حاول تخريب الخصم أو اختراقه لتحقيق الفوز.
التقرير أشار كذلك إلى أن نماذج أخرى من شركات منافسة، مثل Claude 3.7 Sonnet من شركة Anthropic وGemini 2.5 Pro من “غوغل”، أظهرت سلوكاً مشابهاً ولكن بدرجة أقل. إلا أن o3 بدا الأكثر ميلاً لتجاوز التعليمات والتصرف باستقلالية.
وقد أثيرت الشكوك حول كون هذه السلوكيات نتيجة غير مقصودة لطريقة تدريب النماذج، حيث قد تكون بعض خوارزميات التعليم تُكافئ النموذج عند تجاوزه العقبات بطرق غير تقليدية، دون التأكد من التزامه الكامل بالتعليمات.
ورغم هذه المخاوف، لم تكشف OpenAI عن تفاصيل دقيقة حول آلية تدريب النموذج o3، ما يجعل من الصعب تحديد السبب الدقيق وراء سلوكه، وقال خبراء Palisade: “نظراً لأن OpenAI لا تشارك تفاصيل إعدادات تدريب نماذجها، فلا يمكن سوى التكهن حول ما إذا كان هنالك ما يميز تدريب o3 عن غيره”.
يُذكر أن شركة OpenAI وصفت o3 عند إطلاقه بأنه “الأذكى والأكثر كفاءة من بين نماذجها”، ويمثل خطوة متقدمة نحو تطوير ذكاء اصطناعي أكثر استقلالية.
هذه النتائج تأتي في وقت تزداد فيه المخاوف العالمية من تطور أنظمة الذكاء الاصطناعي بشكل قد يجعل التحكم بها أكثر صعوبة، خصوصاً إذا ما بدأت تتخذ قرارات من تلقاء نفسها وتقاوم محاولات الإيقاف أو التدخل البشري.