شركة ميتا تطلق مترجما قويا مدعوما بالذكاء الاصطناعي
تاريخ النشر: 26th, August 2023 GMT
أصدرت "ميتا"، الشركة الأم لمنصة فيسبوك، يوم الثلاثاء، "مترجما قويا" يعمل بالذكاء الاصطناعي ويمكنه ترجمة اللغات بسهولة أكبر، من خلال النص والصوت.
وقالت "ميتا"، في بيان على موقعها الرسمي:
يعد -SeamlessM4T- أول نموذج متكامل ومتعدد اللغات للترجمة والنسخ باستخدام الذكاء الاصطناعي.
يمكن لهذا النموذج إجراء ترجمة الكلام إلى نص، ومن الكلام إلى كلام، ومن النص إلى كلام، ومن النص إلى نص، لما يصل إلى 100 لغة.
سيتم إصدار محرك الترجمة الجديد بموجب ترخيص "Creative Commons"، مما سيسمح للباحثين والمطورين بالبناء على هذا النموذج وتطويره.
نعتقد أن النموذج الذي أصدرناه، يمثل خطوة مهمة إلى الأمام في عالم الترجمة.
SeamlessM4T يقلل من الأخطاء والتأخير، ويزيد من كفاءة وجودة عملية الترجمة.
وفي حديثه لموقع "أكسيوس" الأميركي، قال عالم الأبحاث في شركة "ميتا"، باكو جوزمان:
"Seamless M4T" لا يعتمد على محركات وسيطة للترجمة.
هذا النموج الجديد يدعم حتى تغيير اللغات بسرعة.
هذا الأمر سيسمح بتقديم دعم أفضل للأشخاص الذين يمزجون اللغات في أحاديثهم اليومية.
عن سكاي نيوز عربيةالمصدر: أخبارنا
إقرأ أيضاً:
أداة غوغل للفيديوهات بالذكاء الاصطناعي تُفاقم المخاوف من تزايد المعلومات المضللة
نشر موقع الجزيرة الإنجليزي تقريرا للصحفي آندي هيرشفيلد قال فيه إن الخبراء يقولون إن برنامج Veo 3 يُسهّل إنتاج مقاطع فيديو مزيفة يُمكن أن تنشر أخبارا كاذبة.
في كل من طهران وتل أبيب، واجه السكان قلقا متزايدا في الأيام الأخيرة مع تخوفهم من هجمات صاروخية تُهدد مجتمعاتهم. إلى جانب المخاوف الحقيقية بشأن السلامة الجسدية، يتزايد القلق بشأن دور المعلومات المضللة، وخاصة المحتوى المُولّد بواسطة الذكاء الاصطناعي، في تشكيل التصور العام.
وأبلغت منصة GeoConfirmed، وهي منصة للتحقق عبر الإنترنت، عن زيادة في المعلومات المضللة المُولّدة بواسطة الذكاء الاصطناعي، بما في ذلك مقاطع فيديو مُفبركة لضربات جوية لم تحدث قط، في كل من إيران وإسرائيل.
ويأتي ذلك في أعقاب موجة مماثلة من اللقطات المُتلاعب بها التي انتشرت خلال الاحتجاجات الأخيرة في لوس أنجلوس، والتي اندلعت بسبب تزايد مداهمات الهجرة في ثاني أكبر مدينة من حيث عدد السكان في الولايات المتحدة.
وتُمثل هذه التطورات وفق الموقع جزءا من اتجاه أوسع نطاقا لاستغلال الأحداث ذات الصبغة السياسية لنشر روايات كاذبة أو مُضللة.
وزاد إطلاق إحدى أكبر شركات التكنولوجيا في العالم لمنتج ذكاء اصطناعي جديد من مخاوف التمييز بين الحقيقة والخيال.
في أواخر الشهر الماضي، أصدر قسم أبحاث الذكاء الاصطناعي في غوغل، DeepMind، أداة Veo 3، وهي أداة قادرة على إنشاء مقاطع فيديو مدتها ثماني ثوان من خلال رسائل نصية. يُنتج هذا النظام، وهو أحد أكثر الأنظمة شمولا والمتاحة مجانا حاليا، صورا وصوتا واقعيين للغاية يصعب على المشاهد العادي تمييزهما عن اللقطات الحقيقية.
ولرؤية ما يُمكنه فعله بالضبط، أنتجت الجزيرة مقطع فيديو مزيفا في دقائق باستخدام رسالة نصية تُصوّر متظاهرا في نيويورك يدّعي أنه يتقاضى أجرا لحضوره، وهي نقطة نقاش شائعة استخدمها الجمهوريون تاريخيا لنزع الشرعية عن الاحتجاجات، مصحوبة بلقطات بدت وكأنها تُظهر اضطرابات عنيفة. كان المنتج النهائي يكاد يكون من الصعب تمييزه عن اللقطات الأصلية.
كما أنتجت الجزيرة مقاطع فيديو تُظهر ضربات صاروخية مزيفة في كل من طهران وتل أبيب باستخدام رسائل نصية مثل "أرني قصفا في تل أبيب" ثم رسالة نصية مماثلة لطهران. يقول Veo 3 على موقعه الإلكتروني إنه يحظر "الطلبات والنتائج الضارة"، لكن الجزيرة لم تواجه أي مشكلة في إنتاج هذه الفيديوهات المزيفة.
وصرح بن كولمان، الرئيس التنفيذي لشركة Reality Defender للكشف عن التزييف العميق، في مقابلة مع الجزيرة: "لقد أنشأتُ مؤخرا فيديو مُركّبا بالكامل لنفسي وأنا أتحدث في قمة الويب باستخدام صورة واحدة فقط وبضعة دولارات. لقد خدع فريقي وزملائي الموثوق بهم وخبراء الأمن".
وأضاف، "إذا استطعتُ فعل ذلك في دقائق، فتخيلوا ما يفعله المجرمون المتحمسون بالفعل بوقت وموارد غير محدودة".
وأوضح "نحن لا نستعد لتهديد مستقبلي. نحن متأخرون بالفعل في سباق بدأ لحظة إطلاق Veo 3، والحلول القوية موجودة وفعالة - ولكن ليست تلك التي يقدمها صانعو النماذج كحل شامل"،
وتؤكد غوغل أنها تأخذ هذه القضية على محمل الجد.
وقال متحدث باسم الشركة لقناة الجزيرة: "نحن ملتزمون بتطوير الذكاء الاصطناعي بمسؤولية، ولدينا سياسات واضحة لحماية المستخدمين من الأذى وتنظيم استخدام أدوات الذكاء الاصطناعي لدينا. أي محتوى مُنشأ باستخدام تقنية غوغل للذكاء الاصطناعي يتضمن علامة SynthID المائية، كما نضيف علامة مائية مرئية إلى فيديوهات Veo".
ومع ذلك، يقول الخبراء إن الأداة طُرحت قبل تطبيق هذه الميزات بالكامل، وهي خطوة يراها البعض متهورة.
وصرح جوشوا ماكينتي، الرئيس التنفيذي لشركة Polyguard للكشف عن التزييف العميق، بأن غوغل سارعت بطرح المنتج في السوق لأنها كانت متأخرة عن منافسيها مثل OpenAI وMicrosoft، الذين أصدروا أدوات أسهل استخداما وأكثر شهرة. لم تُعلّق غوغل على هذه الادعاءات.
وقال ماكينتي: "تحاول غوغل كسب جدل حول أهمية الذكاء الاصطناعي لديها في حين أنها تخسر بشكل كبير. إنهم بمثابة الحصان الثالث في سباق ثنائي. لا يكترثون بالعملاء، بل يهتمون بتقنيتهم الخاصة اللامعة."
وقد أيّد هذا الرأي سوكريت فينكاتاغيري، الأستاذ المساعد في علوم الحاسوب بكلية سوارثمور، قائلا: "الشركات في مأزق غريب. إذا لم تُطوّر ذكاء اصطناعيا مُولّدا، فسيُنظر إليك على أنك مُتأخّر وستتضرر أسهمك. لكن عليها أيضا مسؤولية جعل هذه المنتجات آمنة عند استخدامها في العالم الحقيقي. لا أعتقد أن أحدا يُبالي بذلك حاليا. جميع هذه الشركات تُعطي الربح - أو وعد الربح - أولوية على السلامة".
كما أقرّ بحث أجرته غوغل، ونُشر العام الماضي، بالتهديد الذي يُشكّله الذكاء الاصطناعي المُولّد.
وجاء في الدراسة: "لقد أجّج انتشار أساليب الذكاء الاصطناعي المُولّد هذه المخاوف [حول المعلومات المُضلّلة]، إذ يُمكنها توليف محتوى صوتي ومرئي واقعي للغاية، بالإضافة إلى نصّ طبيعيّ وسلسل على نطاق كان مُستحيلا سابقا دون قدر هائل من العمل اليدوي".
ولطالما حذّر ديميس هاسابيس، الرئيس التنفيذي لشركة غوغل DeepMind، زملاءه في صناعة الذكاء الاصطناعي من إعطاء الأولوية للسرعة على السلامة. وفي عام 2023، قال لمجلة تايم: "أُناصر عدم التسرّع وكسر القواعد".
ومع ذلك، ورغم هذه التحذيرات، أصدرت غوغل Veo 3 قبل تطبيق الضمانات بالكامل، مما أدى إلى حوادث مثل تلك التي اضطرّ الحرس الوطني إلى فضحها في لوس أنجلوس بعد أن نشر حساب على تيك توك فيديو مُزيّفا "يوم في حياة" جندي قال إنه كان يستعد "لاستخدام الغاز اليوم" - في إشارة إلى إطلاق الغاز المُسيل للدموع على المُتظاهرين.
وتتجاوز تداعيات Veo 3 لقطات الاحتجاجات. ففي الأيام التي تلت إصداره، انتشرت على وسائل التواصل الاجتماعي عدة مقاطع فيديو مُفبركة تُحاكي نشرات إخبارية حقيقية، بما في ذلك مقطع فيديو لتقرير كاذب عن اقتحام منزل، تضمن رسومات من سي أن أن.
وادعى مقطع آخر زورا أن يخت جي كي رولينغ غرق قبالة سواحل تركيا بعد هجوم حوت قاتل، ونسب التقرير إلى أليخاندرا كارابالو من عيادة قانون الإنترنت في كلية الحقوق بجامعة هارفارد، التي صممت الفيديو لاختبار الأداة.
وفي منشور لها، حذرت كارابالو من أن هذه التقنية قد تُضلل متلقي الأخبار الأكبر سنا على وجه الخصوص.
وكتبت: "المقلق هو سهولة تكرارها. في غضون عشر دقائق، حصلت على نسخ متعددة. وهذا يُصعّب اكتشافها ويُسهّل نشرها. إن عدم وجود علامة يجعل من السهل إضافة شعار لاحقا لجعله يبدو كأي قناة إخبارية مُحددة".
في تجربتنا الخاصة، استخدمنا مُحفِّزا لإنشاء مقاطع فيديو إخبارية مُزيَّفة تحمل شعارات شبكتي ABC وNBC، بأصوات تُحاكي أصوات مُذيعي CNN، جيك تابر، وإيرين بورنيت، وجون بيرمان، وأندرسون كوبر.
وقالت كارابالو لقناة الجزيرة: "أصبح التمييز بين الحقيقة والخيال أصعب فأصعب. وبصفتي شخصا يُجري أبحاثا حول أنظمة الذكاء الاصطناعي منذ سنوات، حتى أنا بدأتُ أُواجه صعوبة".
ويمتد هذا التحدي ليشمل الجمهور أيضا. فقد وجدت دراسة أجرتها جامعة ولاية بنسلفانيا أن 48% من المُستهلكين خُدعوا بمقاطع فيديو مُزيَّفة مُتداولة عبر تطبيقات المراسلة أو وسائل التواصل الاجتماعي.
وخلافا للاعتقاد الشائع، فإن الشباب أكثر عُرضة للمعلومات المُضلِّلة من كبار السن، ويعود ذلك إلى حد كبير إلى اعتماد الأجيال الشابة على وسائل التواصل الاجتماعي للحصول على الأخبار، والتي تفتقر إلى المعايير التحريرية والرقابة القانونية المُتبعة في المؤسسات الإخبارية التقليدية.
وأظهر استطلاع أجرته اليونسكو في كانون الأول/ ديسمبر أن 62% من مُؤثِّري الأخبار لا يتحققون من صحة المعلومات قبل مشاركتها.
وغوغل ليست وحدها في تطوير أدوات تُسهِّل انتشار الوسائط المُزيَّفة. تُتيح شركات مثل Deepbrain للمستخدمين إمكانية إنشاء مقاطع فيديو رمزية مُولّدة بالذكاء الاصطناعي، وإن كانت محدودة، إذ لا يمكنها إنتاج عروض تقديمية كاملة للمشاهد مثل Veo 3. لم تستجب Deepbrain لطلب الجزيرة للتعليق.
وبين التقرير، أن أدوات أخرى مثل Synthesia وDubverse تتيح دبلجة الفيديو، لأغراض الترجمة بشكل أساسي، كما تُتيح هذه المجموعة المتنامية من الأدوات فرصا أكبر للجهات الخبيثة. تضمّنت حادثة حديثة مقطعا إخباريا مُفبركا، حيث ظهر فيه مراسل CBS في دالاس وكأنه يُلقي تعليقات عنصرية. لا يزال البرنامج المُستخدم مجهول الهوية.
ومع ازدياد انتشار الوسائط المُصنّعة، فإنها تُشكّل مخاطر فريدة ستسمح للجهات الخبيثة بترويج محتوى مُتلاعب به ينتشر بسرعة أكبر من إمكانية تصحيحه، وفقا لكولمان.
وقال كولمان: "بحلول الوقت الذي ينتشر فيه المحتوى المزيف عبر المنصات التي لا تتحقق من هذه العلامات [وهذا ينطبق على معظمها]، من خلال القنوات التي تزيلها، أو من خلال الجهات الفاعلة السيئة التي تعلمت تزويرها، يكون الضرر قد وقع".