«ميتا» تطرح نموذجها الجديد «موفي جن» لتوليد الفيديو بالذكاء الاصطناعي
تاريخ النشر: 5th, October 2024 GMT
قدمت مجموعة «ميتا» الجمعة واجهة الذكاء الاصطناعي التوليدي الجديدة «موفي جن» Movie Gen التي تتيح إنشاء مقاطع فيديو بالصوت بالاستناد إلى نصوص أو صور، وهو ما تسمح به خدمات رائدة أخرى في الذكاء الاصطناعي.
وباتت Movie Gen نموذج توليد الصور الثالث لمجموعة «ميتا» بعد نموذج أول في يوليو 2022، وثانٍ في نوفمبر 2023.
لم تتم إتاحة أي من الواجهات الثلاث للعامة، إذ تخضع للاختبار في هذه المرحلة من صانعي محتوى ومخرجين يقوّمون Movie Gen ويساعدون في تحسين البرنامج.
ولم ترد «ميتا» على الفور على سؤال لوكالة فرانس برس بشأن موعد طرح Movie Gen. وبالإضافة إلى مقاطع الفيديو التوضيحية، نشرت المجموعة الجمعة وثيقة بحثية تتضمن توصيفا للنموذج الجديد.
نماذج اللغة هي برامج تعتمد على قواعد بيانات ضخمة، ما يسمح لها بإنشاء محتوى، من نص أو صورة أو فيديو أو صوت أو رمز معلوماتية، استجابة لطلب تمت صياغته باللغة اليومية.
بإمكان Movie Gen إنتاج مقطع فيديو بناءً على طلب مكتوب، وأيضا من صورة. كما يوفر وظائف تحرير لمقاطع فيديو موجودة.
يتيح النموذج أيضاً إضافة مقطع صوتي إلى الفيديو، وفقاً للمبدأ نفسه القائم على الطلبات باللغة اليومية.
في مقطع قصير نُشر على موقع «ميتا»، يكفي التلفظ بجملة واحدة لتعديل فيديو عبر إضافة مشاهد لسيارة رباعية الدفع في الصحراء مع صوت محرك هادر ونغمة غيتار.
وألمحت «ميتا» إلى أن نسخة Movie Gen قد تصبح متاحة للاستخدام يوماً ما عبر شبكتي إنستغرام وفيسبوك، أو حتى من خلال رسائل واتساب.
وليست «ميتا» أول مشغل للذكاء الاصطناعي يطوّر نموذجاً لإنشاء الفيديو.
أخبار ذات صلة
المصدر: صحيفة الاتحاد
كلمات دلالية: ميتا
إقرأ أيضاً:
محامون في بريطانيا مهددون بعقوبات قاسية بسبب الاستعانة بالذكاء الاصطناعي
في سابقة قانونية مهمة، أصدرت المحكمة العليا في إنجلترا وويلز تحذيرًا واضحًا للمحامين بشأن استخدام أدوات الذكاء الاصطناعي التوليدي في أعمالهم، مثل ChatGPT، مطالبة إياهم باتخاذ خطوات أكثر صرامة لتفادي إساءة استخدام هذه التقنيات في السياقات القانونية.
القاضية فيكتوريا شارب، وفي قرارها الذي دمج بين قضيتين حديثتين، أكدت أن أدوات الذكاء الاصطناعي التوليدي "ليست قادرة على إجراء أبحاث قانونية موثوقة"، مضيفة أن "هذه الأدوات قد تُنتج استجابات تبدو متماسكة ومعقولة من الناحية الظاهرية، إلا أن تلك الاستجابات قد تكون خاطئة تمامًا في جوهرها".
المسؤولية المهنية للمحامين لا تزال قائمةورغم أن القاضية لم تحظر استخدام الذكاء الاصطناعي بالكامل، إلا أنها شددت على أن المحامين ملزمون مهنيًا بالتحقق من دقة الأبحاث التي تُجرى باستخدام أدوات الذكاء الاصطناعي، من خلال الرجوع إلى مصادر موثوقة وموثقة قبل إدراج تلك المعلومات في ملفاتهم القانونية أو تقديمها للمحكمة.
وقالت القاضية: “مع تزايد الحالات التي يستشهد فيها محامون بمعلومات خاطئة يبدو أنها مولدة بالذكاء الاصطناعي، يجب بذل المزيد من الجهد لضمان الالتزام بالتوجيهات، ولضمان وفاء المحامين بواجباتهم تجاه المحكمة”.
في إحدى القضيتين موضوع الحكم، قدم محامٍ يمثّل رجلاً يطالب بتعويضات من مصرفين مذكرة قانونية تضمنت 45 مرجعًا قانونيًا، تبيّن أن 18 منها لا وجود لها أصلًا. كما أن العديد من الاقتباسات الأخرى إما كانت مزيفة أو لا علاقة لها بموضوع الطلب أو لم تدعم الحُجج التي استخدمها المحامي.
وفي القضية الأخرى، استشهدت محامية في قضية إخلاء أحد سكان لندن بخمسة قرارات قضائية تبيّن للمحكمة أنها أيضًا غير موجودة.
رغم إنكار المحامية لاستخدامها الذكاء الاصطناعي بشكل مباشر، فقد أقرّت بإمكانية أن تكون تلك المراجع قد استُمدت من ملخصات عبر "جوجل" أو "سفاري" والتي يُحتمل أنها تولدت عبر الذكاء الاصطناعي.
وأوضحت القاضية أن المحكمة اختارت عدم اتخاذ إجراءات بتهمة ازدراء المحكمة، لكنها شددت أن هذا "لا يُعد سابقة قانونية".
توصية بإحالة الحكم إلى الهيئات المهنيةواختتمت القاضية شارب قرارها بالإشارة إلى أنه سيتم إرسال الحكم إلى الهيئات المهنية المختصة، بما في ذلك مجلس نقابة المحامين (Bar Council) وجمعية القانون (Law Society)، بهدف تعزيز الوعي وتنظيم استخدام أدوات الذكاء الاصطناعي في القطاع القانوني بما يضمن النزاهة والدقة المهنية.