«ميتا» تختبر أداة ذكاء اصطناعي للفيديو بمعاونة استوديو أفلام رعب
تاريخ النشر: 20th, October 2024 GMT
المناطق_متابعات
كشفت “ميتا” عن شراكة مع استوديو أفلام الرعب الأمريكي “بلومهاوس” Blumhouse الذي أنتج خصوصاً فيلم “غت أوت”، لاختبار أداة الذكاء الاصطناعي التوليدي الجديدة “موفي جن” المخصصة لإنشاء مقاطع الفيديو التي لا تزال في مرحلة تجريببة.
وكجزء من هذا التعاون، اختارت “بلومهاوس” مجموعة من المخرجين لتجربة أداة “ميتا”، بينهم كايسي أفليك الذي أخرج فيلم “لايت أوف ماي لايف” وفاز بجائزة أوسكار عام 2017 كممثل في فيلم “مانشستر باي ذي سي”، أو أنيش شاغانتي (مخرج “سيرتشينغ”).
وعمل هؤلاء خصوصاً على إنشاء مقاطع فيديو معدة للدمج في تسلسلات أطول، وفق ما أوضحت المجموعة الأمريكية العملاقة في مجال التكنولوجيا في بيان.
وأضافت ميتا: “رغم أن شيئاً لا يمكنه أن يحل محل الخبرة العملية في التصوير، إلا أن النماذج الخاصة بأداة +موجي جن+ استطاعت مساعدة (المخرجين) في التعبير عن الأفكار بسرعة أكبر واستكشاف رؤية ونبرة ومزاج” في إطار توليد مقاطع الفيديو.
نماذج اللغة هي برامج تعتمد على قواعد بيانات ضخمة، ما يسمح لها بإنشاء محتوى أو نص أو صورة أو فيديو أو صوت أو رموز معلوماتية استجابة لطلب تمت صياغته باللغة اليومية.
ويمكن لـ”موفي جن” إنتاج مقطع فيديو من طلبات مكتوبة، ولكن أيضاً من الصور. كما يوفر أيضا إمكان تعديل مقطع فيديو موجود.
ويتيح النموذج أيضاً إضافة مقطع صوتي إلى الفيديو، وفقاً للمبدأ نفسه القائم على الطلبات باللغة اليومية.
و”موفي جن” هو ثالث نموذج توليد الصور لمجموعة “ميتا” بعد نموذج أول في يوليو 2022، وثانٍ في نوفمبر 2023. ولم تُتح أي من الواجهات الثلاث للعامة.
وعلَّق مؤسس استوديو “بلومهاوس” جيسون بلوم في البيان، قائلاً “ستكون هذه أدوات قوية للمخرجين ومن المهم إشراك الصناعة الإبداعية في تطويرها للتأكد من أنها الأكثر ملاءمة”.
ومع ذلك، يثير الذكاء الاصطناعي التوليدي قلق عدد كبير من الفنانين، من هوليوود إلى مطوري ألعاب الفيديو، ما يُترجَم عبر إضرابات ودعاوى قضائية متعلقة بانتهاك حقوق الملكية الفكرية.
ويطالب هؤلاء خصوصاً بضمانات بعدم استخدام أصواتهم أو حركاتهم من دون موافقتهم، مع منحهم أجراً عادلاً.
المصدر: صحيفة المناطق السعودية
كلمات دلالية: ميتا
إقرأ أيضاً:
واشنطن بوست: أوبن إيه آي تدرب سورا على مقاطع فيديو من يوتيوب
نشرت صحيفة واشنطن بوست تحقيقا مطولا حول البيانات التي استخدمتها شركة "أوبن إيه آي" لتدريب نموذج الذكاء الاصطناعي التوليدي لمقاطع الفيديو "سورا" (Sora) وهو النموذج ذاته الذي طرحت منه الشركة الجيل الثاني وأثار ضجة عالمية في الآونة الأخيرة.
ويرى كيفن شاول المختص في قطاع الرسوميات عبر الذكاء الاصطناعي لدى الصحيفة الأميركية أن الشركة استخدمت البيانات التي تمكنت من الوصول إليها عبر الإنترنت دون الحصول على إذن من مالكيها الأصليين.
ويشير التقرير إلى تصريح سابق من تيم بروكس القائد المشارك لمشروع "سورا" عام 2024، إذ أوضح أن الشركة استخدمت جميع البيانات التي وصلت إليها في صيغتها الأصلية.
ومن جانبها، اكتفت "أوبن إيه آي" بذكر أنها استخدمت البيانات ومقاطع الفيديو المتاحة للعامة عبر الإنترنت فضلا عن المقاطع التي يمكن الحصول على الرخص اللازمة لها، دون توضيح مصدر مباشر لهذه المقاطع.
وتجدر الإشارة إلى أن "أوبن إيه آي" اتبعت أسلوبا مماثلا أثناء تطويرها لنموذج الذكاء الاصطناعي "شات جي بي تي" إذ قامت بجمع البيانات من كافة المصادر الموجودة عبر الإنترنت.
ولم يقتصر تقرير الصحيفة على التصريحات السابقة للشركة، بل ضم تجربة عملية قامت بها "واشنطن بوست" في محاولة لإعادة إنشاء مئات مقاطع الفيديو من الأفلام ومسلسلات التلفاز وحتى بعض مقاطع الفيديو الشهيرة عبر يوتيوب.
إنشاء مقاطع مطابقة للمصادرتمكن فريق "واشنطن بوست" من إعادة إنشاء العديد من المقاطع التي تستخدم مصادر معروفة وواضحة، مثل إعادة إنشاء مشاهد من مسلسل "وينزداي" (Wednesday) الشهير المعروض في منصة نتفليكس فضلا عن إنشاء شعارات العديد من الشركات الشهيرة مثل "ورانر برذرز" أو "دريم وركس".
وامتد الأمر إلى إمكانية إنشاء مقاطع تحاكي الألعاب الشهيرة والتي يمكن العثور عليها بكثرة في "يوتيوب" مثل "ماين كرافت" وبعض الألعاب الأخرى إلى جانب الشخصيات الكرتونية الشهيرة.
إعلانكما أن النموذج استطاع توليد مقاطع فيديو تحمل العلامات المائية وشعارات العديد من الشبكات الإخبارية البارزة حول العالم، بما في ذلك اتحاد كرة السلة الأميركي ومقاطع من "تيك توك" تحمل العلامة المائية ذاتها.
First video of Sora 2 on @higgsfield_ai
“ Asurreal cinematic trailer inspired by the Apple TV+ series Severance.“
We used to watch movies.
Now we generate them.
Welcome to the funniest and most chaotic revolution ever —
Sora 2 × Higgsfield ????????#HiggsfieldSora2 pic.twitter.com/pXWZ5MoM4z
— Ayyoub Ai (@MaAyyoub) October 7, 2025
وتجدر الإشارة إلى أن "سورا" كان قادرا على توليد مقاطع تحاكي رقصات "تيك توك" الشهيرة بشكل يجعلها أقرب إلى الحقيقة، وهو ما يؤكد استخدام الأداة لهذه المقاطع الموجودة في المنصة.
ومع طرح نموذج "سورا 2" الذي يمتاز بإمكانية توليد الأصوات مع مقاطع الفيديو، أصبح الأمر أكثر وضوحا أن الشركة اعتمدت على منصات بث الفيديو المختلفة لتدريب نموذجها.
وظهرت في الآونة الأخيرة مجموعة مقاطع فيديو متنوعة تضم شخصيات بارزة ومشهورة عالميا تتحدث عن أشياء غير حقيقية تماما، ولكن صوتها يبدو أقرب إلى الشخصية الحقيقية.
ويشير التقرير إلى أن "نتفليكس" و"تويتش" لم تقوما بتزويد "أوبن إيه آي" بأي مقاطع تابعة لهم ليتم استخدامها في تدريب النموذج على توليد مقاطع جديدة.
التدريب على أكثر من 70% من مقاطع "يوتيوب"وقامت جوانا ماتيرزينسكا، باحثة حاصلة على درجة الدكتوراه في معهد ماساتشوستس للتكنولوجيا والتي درست مجموعات البيانات المستخدمة في الذكاء الاصطناعي، بالمشاركة في دراسة العام الماضي حول البيانات المستخدمة في تدريب نماذج الذكاء الاصطناعي.
ووجدت هذه الدراسة أن 70% من مكتبات البيانات المستخدمة في تدريب نماذج الذكاء الاصطناعي قادمة بالأساس من "يوتيوب" وهو الأمر الذي يخالف سياسة استخدام "يوتيوب" بشكل صريح.
ولا ينطبق هذا على "أوبن إيه آي" فقط، إذ أشار التقرير إلى "إنفيديا" ونموذج "ران واي" (Runway) اعتمادا على مقاطع من "يوتيوب" لتدريب النموذج النهائي الخاص بهم، وذلك رغم أن "إنفيديا" أكدت احترامها لحقوق صناعي المحتوى ومراعاتها لسياسة الاستخدام لكل منصة.
كما نشرت "غوغل" في تدوينة سابقة أنها تعتمد على مقاطع "يوتيوب" لتدريب النماذج الخاصة بها، ولكنها تأتي بشكل يراعي قوانين وقواعد استخدام المنصة.
ومن جانبها، وضحت "يوتيوب" على لسان جاك مالون المتحدث الرسمي باسم المنصة أن النسخ غير المصرح به لمحتوى المنصة يعد انتهاكا لشروط الخدمة الخاصة بها.
"سورا 2" والتدريب المجتمعيقررت "أوبن إيه آي" اتباع نهج مختلف قليلا مع "سورا 2" إذ حولت الأداة إلى ما يشبه منصة تواصل اجتماعي لمشاركة مقاطع الفيديو الخاصة بالمستخدمين والتي يتم توليدها عبر الأداة.
وتركت للمستخدمين حرية رفع مقاطع فيديو خاصة بهم ليتم تدريب النموذج عليها، وإعادة استخدامها سواء من قبل المستخدم نفسه أو أي مستخدم في العالم كملكية عامة للشركة.
وبينما تحل هذه الخطوة جزءا من الأزمة المتعلقة بحقوق الملكية في الأداة، إلا أنها لا تعالج الأزمة الرئيسية وهي البيانات التي تم تدريب النموذج الاولي بها وبناء الجيل الثاني عليها.
إعلان