Apple وNVIDIA وAnthropic تستخدم نصوص يوتيوب دون إذن
تاريخ النشر: 18th, July 2024 GMT
وبحسب ما ورد استخدمت Apple وNVIDIA وAnthropic نصوص YouTube دون إذن لتدريب نماذج الذكاء الاصطناعي
توصل تحقيق جديد أجرته Proof News إلى أن بعض أكبر شركات التكنولوجيا في العالم قامت بتدريب نماذج الذكاء الاصطناعي الخاصة بها على مجموعة بيانات تضمنت نصوصًا لأكثر من 173000 مقطع فيديو على YouTube دون إذن.
تحتوي مجموعة البيانات، التي أنشأتها شركة غير ربحية تدعى EleutherAI، على نصوص من مقاطع فيديو YouTube من أكثر من 48000 قناة واستخدمتها Apple وNVIDIA وAnthropic من بين شركات أخرى.
لا تتضمن مجموعة البيانات أي مقاطع فيديو أو صور من YouTube، ولكنها تحتوي على نصوص فيديو من أكبر منشئي المنصة بما في ذلك Marques Brownlee وMrBeast، بالإضافة إلى ناشري الأخبار الكبار مثل The New York Times، وBBC، وABC News. تعد الترجمات من مقاطع الفيديو التابعة لشركة Engadget أيضًا جزءًا من مجموعة البيانات.
نشر براونلي على موقع X: "لقد حصلت شركة Apple على بيانات الذكاء الاصطناعي الخاص بها من عدة شركات". وأضاف: "قامت إحدى هذه الشركات باستخلاص الكثير من البيانات/النصوص من مقاطع الفيديو على موقع YouTube، بما في ذلك مقاطع الفيديو الخاصة بي". "ستكون هذه مشكلة متطورة لفترة طويلة."
صرح متحدث باسم Google لـ Engadget أن التعليقات السابقة التي أدلى بها الرئيس التنفيذي لشركة YouTube، نيل موهان، والتي قال فيها إن الشركات التي تستخدم بيانات YouTube لتدريب نماذج الذكاء الاصطناعي ستنتهك شروط وخدمة المنصة لا تزال قائمة. ولم تستجب شركات Apple وNVIDIA وAnthropic وEleutherAI لطلب التعليق من Engadget.
حتى الآن، لم تكن شركات الذكاء الاصطناعي شفافة بشأن البيانات المستخدمة لتدريب نماذجها. في وقت سابق من هذا الشهر، انتقد الفنانون والمصورون شركة آبل لفشلها في الكشف عن مصدر بيانات التدريب الخاصة بشركة Apple Intelligence، وهي الشركة التي تدور حول الذكاء الاصطناعي التوليدي القادم إلى ملايين أجهزة Apple هذا العام.
يُعد موقع YouTube، وهو أكبر مستودع لمقاطع الفيديو في العالم، على وجه الخصوص، منجم ذهب ليس فقط للنصوص الصوتية ولكن أيضًا للصوت والفيديو والصور، مما يجعله مجموعة بيانات جذابة لتدريب نماذج الذكاء الاصطناعي. في وقت سابق من هذا العام، تهربت ميرا موراتي، كبيرة مسؤولي التكنولوجيا في OpenAI، من أسئلة صحيفة وول ستريت جورنال حول ما إذا كانت الشركة تستخدم مقاطع فيديو YouTube لتدريب Sora، أداة توليد الفيديو المرتقبة باستخدام الذكاء الاصطناعي في OpenAI. وقال موراتي في ذلك الوقت: "لن أخوض في تفاصيل البيانات التي تم استخدامها، لكنها كانت متاحة للعامة أو بيانات مرخصة". قال الرئيس التنفيذي لشركة Alphabet، ساندر بيتشاي، أيضًا إن الشركات التي تستخدم البيانات من YouTube لتدريب نماذج الذكاء الاصطناعي الخاصة بها ستنتهك شروط خدمة النظام الأساسي.
إذا كنت تريد معرفة ما إذا كانت الترجمات من مقاطع الفيديو الخاصة بك على YouTube أو من قنواتك المفضلة جزءًا من مجموعة البيانات، فتوجه إلى أداة البحث في Proof News.
المصدر: بوابة الوفد
كلمات دلالية: لتدریب نماذج الذکاء الاصطناعی مجموعة البیانات مقاطع الفیدیو من مقاطع
إقرأ أيضاً:
خبراء يحذرون: الذكاء الاصطناعي ليس بديلًا آمنا للعلاج النفسي
مع التوسع المتزايد في استخدام تقنيات الذكاء الاصطناعي في شتى المجالات، بدأ البعض يلجأ لهذه الأدوات كمساعدات نفسية، أو حتى كبدائل عن الأطباء المختصين إلا أن خبراء الصحة النفسية يحذرون من هذه الممارسات، ويؤكدون أنها قد تحمل عواقب خطيرة على الصحة النفسية والخصوصية الشخصية.
خبراء يحذرون: الذكاء الاصطناعي ليس بديلًا آمنا للعلاج النفسيوفي هذا السياق، صرحت الدكتورة يكاتيرينا أورلوفا، نائبة مدير معهد علم النفس السريري والعمل الاجتماعي بجامعة بيروغوفسكي الروسية، لصحيفة "غازيتا.رو"، بمجموعة من التحذيرات الهامة.
قالت أورلوفا إن "الذكاء الاصطناعي لا يمكنه تقديم دعم نفسي مؤهل، لأنه يفتقر إلى التعاطف الحقيقي، وغير قادر على التقاط الإشارات غير اللفظية الدقيقة التي تحمل في طياتها معانٍ نفسية عميقة".
وأشارت إلى خطورة أن يفشل النظام في لحظات حرجة من اليأس أو الاضطراب النفسي، وربما يقدّم نصائح غير ملائمة أو حتى مؤذية.
خطر على خصوصية المرضىأحد أكبر التحديات في الاعتماد على الذكاء الاصطناعي في العلاج النفسي هو الخصوصية وأوضحت أورلوفا: المشاعر والمخاوف التي يبوح بها المستخدم للذكاء الاصطناعي يمكن أن تُستخدم بشكل ضار إذا وقعت في أيدي جهات غير نزيهة، خاصة أن إعادة التعرف على هوية الأشخاص من بيانات مجهولة أصبح أمرًا ممكنًا في بعض الحالات.
وشدّدت الخبيرة على أن خوارزميات الذكاء الاصطناعي ليست محايدة، فهي تتعلم من بيانات أنشأها بشر يحملون تحيّزاتهم، مما يجعل الذكاء الاصطناعي عرضة لإعادة إنتاج الصور النمطية أو التمييز ضد فئات معينة من المرضى النفسيين.
أشارت أورلوفا إلى أن الخطر الأكبر يتمثل في خلق وهم لدى الناس بأن الذكاء الاصطناعي يمكنه أن يحل محل الطبيب النفسي، ما قد يؤدي إلى تأجيل طلب المساعدة الحقيقية حتى في الحالات الحرجة.
في الختام، رغم أن الذكاء الاصطناعي يمكن أن يكون أداة مساعدة في جمع البيانات أو تقديم دعم أولي، فإنه لا يجب اعتباره بديلًا للعلاج النفسي الحقيقي الذي يقدمه مختصون قادرون على التفاعل الإنساني والتعاطف وفهم السياق العاطفي بدقة.