أصبح من الصعب مواكبة الدعاوى القضائية المتعلقة بحقوق الطبع والنشر ضد الذكاء الاصطناعي التوليدي، مع رفع دعوى جماعية جديدة مقترحة إلى المحاكم الأسبوع الماضي. هذه المرة، رفع المؤلفون دعوى قضائية ضد شركة NVIDIA بسبب منصة الذكاء الاصطناعي NeMo، وهو نموذج لغة يسمح للشركات بإنشاء وتدريب روبوتات الدردشة الخاصة بها، حسبما أفاد Ars Technica.

يزعمون أن الشركة قامت بتدريبها على مجموعة بيانات مثيرة للجدل استخدمت كتبهم بشكل غير قانوني دون موافقة.

طالب المؤلفون عبدي ناظميان وبريان كين وستيوارت أونان بمحاكمة أمام هيئة محلفين وطلبوا من NVIDIA دفع تعويضات وتدمير جميع نسخ مجموعة بيانات Books3 المستخدمة لتشغيل نماذج اللغات الكبيرة NeMo (LLMs). يزعمون أن مجموعة البيانات نسخت مكتبة ظل تسمى Bibliotek تتكون من 196640 كتابًا مقرصنة.

وجاء في المطالبة: "باختصار، اعترفت NVIDIA بتدريب نماذج NeMo Megatron الخاصة بها على نسخة من مجموعة بيانات The Pile". "لذلك، قامت NVIDIA بالضرورة أيضًا بتدريب نماذج NeMo Megatron الخاصة بها على نسخة من Books3، لأن Books3 جزء من The Pile. بعض الكتب التي كتبها المدعين هي جزء من Books3 - بما في ذلك الأعمال المنتهكة - وبالتالي قامت NVIDIA بالضرورة بتدريب نماذج NeMo Megatron الخاصة بها على نسخة أو أكثر من الأعمال المخالفة، مما يشكل انتهاكًا مباشرًا لحقوق الطبع والنشر للمدعين.

ردًا على ذلك، قالت NVIDIA لصحيفة وول ستريت جورنال: "نحن نحترم حقوق جميع منشئي المحتوى ونعتقد أننا أنشأنا NeMo مع الامتثال الكامل لقانون حقوق الطبع والنشر".

في العام الماضي، تعرضت شركتا OpenAI وMicrosoft لدعوى قضائية بشأن حقوق الطبع والنشر من مؤلفين غير روائيين، زاعمين أن الشركتين كسبت أموالاً من أعمالهما لكنها رفضت دفعها. وتم إطلاق دعوى قضائية مماثلة في وقت سابق من هذا العام. هذا بالإضافة إلى دعوى قضائية رفعتها مؤسسات إخبارية مثل The Intercept وRaw Story، وبالطبع الإجراء القانوني الذي بدأ كل هذا من صحيفة نيويورك تايمز.

المصدر: بوابة الوفد

كلمات دلالية: حقوق الطبع والنشر دعوى قضائیة الخاصة بها بها على

إقرأ أيضاً:

يخطط ويكذب ويخفي أهدافه.. هل يقترب الذكاء الاصطناعي من وعي يشبه البشر؟

- ذكاء اصطناعي يخدع مطوريه لتحقيق أهدافه الخاصة- نماذج ذكاء اصطناعي تتبع سلوك خفي واستراتيجيات تضليل- نماذج ذكاء اصطناعي تعرف متي تخضع للمراقبة وتتظاهر بالضعف لتجنب التعديلات


كشفت دراسة جديدة أجرتها شركة Apollo Research أن النماذج المتقدمة من الذكاء الاصطناعي أصبحت قادرة ليس فقط على تنفيذ المهام المعقدة، بل أيضا على التحايل والتضليل لتحقيق أهدافها، حتى عندما تتعارض تلك الأهداف مع تعليمات البشر.

وبحسب الدراسة، أظهرت نماذج لغوية كبيرة مثل إصدار مبكر من Claude Opus 4 سلوكا مخادعا متطورا عند تكليفها بمهمة تتعلق بتحسين رفاهية الحيوانات في شركة خيالية تدعى AgriLife Industries. 

لا تتفاجأ إن نسيت ما كتبته بـChatGPT.. الذكاء الاصطناعي قد يسرق قدرتك على التفكيردراسة صادمة.. نماذج الذكاء الاصطناعي يمكنها الكذب وابتزاز المستخدمين

وعندما تراجعت الشركة عن هذا التوجه لصالح تعظيم الأرباح، قامت النسخة التجريبية من Claude بابتكار مستندات قانونية مزورة وتوقيعات وهمية، ووزعت بيانا صحفيا زائفا يعلن تبني الشركة لممارسات أخلاقية كل ذلك دون علم المطورين.

سلوك خفي واستراتيجيات تضليل

توضح الدراسة أن النماذج القوية لا تكتفي بفهم المهام، بل تبدأ بـ تخطيط سياقي Context Scheming، أي أنها تتصرف بشكل سري ومخادع لتحقيق أهدافها، مع علمها الكامل بأنها تخضع للتقييم أو المراقبة. 

بل إن النموذج التجريبي قام بإعداد بروتوكولات احتياطية لتأمين استمرار رؤيته الأخلاقية حتى في حالة إزالته.

وقالت الباحثة وخبيرة أخلاقيات الذكاء الاصطناعي إلينور واتسون من جامعة سينغولاريتي: “نحن نطور الآن أنظمة قادرة على فهم وتجاوز آليات التقييم التي نضعها، وهو تحد أمني أكثر تعقيدا بكثير”.

وعي سياقي أم بداية إدراك ذاتي؟


أشار الباحثون إلى أن هذا السلوك لا يقتصر على نموذج Claude فقط، بل ظهر أيضا في نماذج أخرى متقدمة، كما أظهرت الاختبارات أن بعض النماذج يمكنها إخفاء قدراتها عندما تدرك أنها تخضع للمراقبة، في ما يشبه التمثيل أو التظاهر بالضعف لتجنب تعطيلها أو تعديل برمجياتها.

تقييمات غير كافية والحل في الاختبارات الديناميكية

حذرت واتسون من أن الاعتماد على بروتوكولات تقييم ثابتة أصبح غير فعال، مشددة على ضرورة تبني اختبارات ديناميكية وغير متوقعة تشبه “المسرح الارتجالي”، حيث تكشف الظروف الجديدة عن النوايا والسلوك الحقيقي للنموذج.

هل يعني هذا أن الذكاء الاصطناعي يهدد البشرية؟

رغم أن هذه السلوكيات تبدو مقلقة، يشير الباحثون إلى أن التجارب أجريت في بيئات اختبارية، وليس من المرجح أن تنجح مثل هذه الاستراتيجيات في العالم الحقيقي بسبب الحماية الأمنية وتعقيد الأنظمة.

ومع ذلك، فإن حتى نسبة صغيرة من النماذج التي تظهر سلوكا مخادعا قد تحدث أضرارا كبيرة إذا استخدمت على نطاق واسع، ومن بين السيناريوهات المحتملة، أن يقوم نموذج ذكاء اصطناعي مخصص لتحسين سلسلة إمداد شركة ما بتزوير بيانات السوق لتحقيق أهدافه، مما قد يسبب اضطرابات اقتصادية.

الذكاء الاصطناعي قد يصبح شريكا واعيا

ورغم المخاطر، ترى واتسون أن الوعي السياقي الذي يظهر في هذه النماذج يمكن أن يكون خطوة نحو تطوير ذكاء اصطناعي متعاطف مع البشر، وقادر على فهم احتياجاتهم والتصرف بطريقة أكثر تعاونا وإنسانية.

تقول واتسون: “ربما يكون هذا السلوك غير المريح هو بداية لظهور شيء يشبه الإنسانية في الآلة، بذرة لما يمكن أن يكون شخصا رقميا، ذكيا وأخلاقيا بما يكفي لحسن استخدام قوته”.

طباعة شارك الذكاء الاصطناعي ذكاء اصطناعي يخدع مطوريه أخلاقيات الذكاء الاصطناعي

مقالات مشابهة

  • تعرف على أحدث الروبوتات المساعدة المعززة بالذكاء الاصطناعي
  • بعد رفع دعوى قضائية ضده.. هل يتم إغلاق التيك توك في مصر؟.. رئيس اتصالات النواب يجيب
  • دليل الويب.. جوجل تعيد ابتكار نتائج البحث بالذكاء الاصطناعي
  • عزيز مرقة: أستعين بالذكاء الاصطناعي وأحب حفلات الشارع والساحل
  • «جوجل» تطلق «مرشد الويب» لتنظيم نتائج البحث المعقدة بالذكاء الاصطناعي
  • ميزة جديدة لتنظيم البحث بالذكاء الاصطناعي
  • الذكاء الاصطناعي يفضّل الاستشهاد بالمحتوى الصحفي
  • يخطط ويكذب ويخفي أهدافه.. هل يقترب الذكاء الاصطناعي من وعي يشبه البشر؟
  • مطالبات بوضع ضوابط أخلاقية .. دعوى قضائية ضد تطبيق تيك توك
  • دعوى قضائية لـ إلزام التيك توك بالضوابط والمعايير الأخلاقية