أداة غوغل للفيديوهات بالذكاء الاصطناعي تُفاقم المخاوف من تزايد المعلومات المضللة
تاريخ النشر: 28th, June 2025 GMT
نشر موقع الجزيرة الإنجليزي تقريرا للصحفي آندي هيرشفيلد قال فيه إن الخبراء يقولون إن برنامج Veo 3 يُسهّل إنتاج مقاطع فيديو مزيفة يُمكن أن تنشر أخبارا كاذبة.
في كل من طهران وتل أبيب، واجه السكان قلقا متزايدا في الأيام الأخيرة مع تخوفهم من هجمات صاروخية تُهدد مجتمعاتهم. إلى جانب المخاوف الحقيقية بشأن السلامة الجسدية، يتزايد القلق بشأن دور المعلومات المضللة، وخاصة المحتوى المُولّد بواسطة الذكاء الاصطناعي، في تشكيل التصور العام.
وأبلغت منصة GeoConfirmed، وهي منصة للتحقق عبر الإنترنت، عن زيادة في المعلومات المضللة المُولّدة بواسطة الذكاء الاصطناعي، بما في ذلك مقاطع فيديو مُفبركة لضربات جوية لم تحدث قط، في كل من إيران وإسرائيل.
ويأتي ذلك في أعقاب موجة مماثلة من اللقطات المُتلاعب بها التي انتشرت خلال الاحتجاجات الأخيرة في لوس أنجلوس، والتي اندلعت بسبب تزايد مداهمات الهجرة في ثاني أكبر مدينة من حيث عدد السكان في الولايات المتحدة.
وتُمثل هذه التطورات وفق الموقع جزءا من اتجاه أوسع نطاقا لاستغلال الأحداث ذات الصبغة السياسية لنشر روايات كاذبة أو مُضللة.
وزاد إطلاق إحدى أكبر شركات التكنولوجيا في العالم لمنتج ذكاء اصطناعي جديد من مخاوف التمييز بين الحقيقة والخيال.
في أواخر الشهر الماضي، أصدر قسم أبحاث الذكاء الاصطناعي في غوغل، DeepMind، أداة Veo 3، وهي أداة قادرة على إنشاء مقاطع فيديو مدتها ثماني ثوان من خلال رسائل نصية. يُنتج هذا النظام، وهو أحد أكثر الأنظمة شمولا والمتاحة مجانا حاليا، صورا وصوتا واقعيين للغاية يصعب على المشاهد العادي تمييزهما عن اللقطات الحقيقية.
ولرؤية ما يُمكنه فعله بالضبط، أنتجت الجزيرة مقطع فيديو مزيفا في دقائق باستخدام رسالة نصية تُصوّر متظاهرا في نيويورك يدّعي أنه يتقاضى أجرا لحضوره، وهي نقطة نقاش شائعة استخدمها الجمهوريون تاريخيا لنزع الشرعية عن الاحتجاجات، مصحوبة بلقطات بدت وكأنها تُظهر اضطرابات عنيفة. كان المنتج النهائي يكاد يكون من الصعب تمييزه عن اللقطات الأصلية.
كما أنتجت الجزيرة مقاطع فيديو تُظهر ضربات صاروخية مزيفة في كل من طهران وتل أبيب باستخدام رسائل نصية مثل "أرني قصفا في تل أبيب" ثم رسالة نصية مماثلة لطهران. يقول Veo 3 على موقعه الإلكتروني إنه يحظر "الطلبات والنتائج الضارة"، لكن الجزيرة لم تواجه أي مشكلة في إنتاج هذه الفيديوهات المزيفة.
وصرح بن كولمان، الرئيس التنفيذي لشركة Reality Defender للكشف عن التزييف العميق، في مقابلة مع الجزيرة: "لقد أنشأتُ مؤخرا فيديو مُركّبا بالكامل لنفسي وأنا أتحدث في قمة الويب باستخدام صورة واحدة فقط وبضعة دولارات. لقد خدع فريقي وزملائي الموثوق بهم وخبراء الأمن".
وأضاف، "إذا استطعتُ فعل ذلك في دقائق، فتخيلوا ما يفعله المجرمون المتحمسون بالفعل بوقت وموارد غير محدودة".
وأوضح "نحن لا نستعد لتهديد مستقبلي. نحن متأخرون بالفعل في سباق بدأ لحظة إطلاق Veo 3، والحلول القوية موجودة وفعالة - ولكن ليست تلك التي يقدمها صانعو النماذج كحل شامل"،
وتؤكد غوغل أنها تأخذ هذه القضية على محمل الجد.
وقال متحدث باسم الشركة لقناة الجزيرة: "نحن ملتزمون بتطوير الذكاء الاصطناعي بمسؤولية، ولدينا سياسات واضحة لحماية المستخدمين من الأذى وتنظيم استخدام أدوات الذكاء الاصطناعي لدينا. أي محتوى مُنشأ باستخدام تقنية غوغل للذكاء الاصطناعي يتضمن علامة SynthID المائية، كما نضيف علامة مائية مرئية إلى فيديوهات Veo".
ومع ذلك، يقول الخبراء إن الأداة طُرحت قبل تطبيق هذه الميزات بالكامل، وهي خطوة يراها البعض متهورة.
وصرح جوشوا ماكينتي، الرئيس التنفيذي لشركة Polyguard للكشف عن التزييف العميق، بأن غوغل سارعت بطرح المنتج في السوق لأنها كانت متأخرة عن منافسيها مثل OpenAI وMicrosoft، الذين أصدروا أدوات أسهل استخداما وأكثر شهرة. لم تُعلّق غوغل على هذه الادعاءات.
وقال ماكينتي: "تحاول غوغل كسب جدل حول أهمية الذكاء الاصطناعي لديها في حين أنها تخسر بشكل كبير. إنهم بمثابة الحصان الثالث في سباق ثنائي. لا يكترثون بالعملاء، بل يهتمون بتقنيتهم الخاصة اللامعة."
وقد أيّد هذا الرأي سوكريت فينكاتاغيري، الأستاذ المساعد في علوم الحاسوب بكلية سوارثمور، قائلا: "الشركات في مأزق غريب. إذا لم تُطوّر ذكاء اصطناعيا مُولّدا، فسيُنظر إليك على أنك مُتأخّر وستتضرر أسهمك. لكن عليها أيضا مسؤولية جعل هذه المنتجات آمنة عند استخدامها في العالم الحقيقي. لا أعتقد أن أحدا يُبالي بذلك حاليا. جميع هذه الشركات تُعطي الربح - أو وعد الربح - أولوية على السلامة".
كما أقرّ بحث أجرته غوغل، ونُشر العام الماضي، بالتهديد الذي يُشكّله الذكاء الاصطناعي المُولّد.
وجاء في الدراسة: "لقد أجّج انتشار أساليب الذكاء الاصطناعي المُولّد هذه المخاوف [حول المعلومات المُضلّلة]، إذ يُمكنها توليف محتوى صوتي ومرئي واقعي للغاية، بالإضافة إلى نصّ طبيعيّ وسلسل على نطاق كان مُستحيلا سابقا دون قدر هائل من العمل اليدوي".
ولطالما حذّر ديميس هاسابيس، الرئيس التنفيذي لشركة غوغل DeepMind، زملاءه في صناعة الذكاء الاصطناعي من إعطاء الأولوية للسرعة على السلامة. وفي عام 2023، قال لمجلة تايم: "أُناصر عدم التسرّع وكسر القواعد".
ومع ذلك، ورغم هذه التحذيرات، أصدرت غوغل Veo 3 قبل تطبيق الضمانات بالكامل، مما أدى إلى حوادث مثل تلك التي اضطرّ الحرس الوطني إلى فضحها في لوس أنجلوس بعد أن نشر حساب على تيك توك فيديو مُزيّفا "يوم في حياة" جندي قال إنه كان يستعد "لاستخدام الغاز اليوم" - في إشارة إلى إطلاق الغاز المُسيل للدموع على المُتظاهرين.
وتتجاوز تداعيات Veo 3 لقطات الاحتجاجات. ففي الأيام التي تلت إصداره، انتشرت على وسائل التواصل الاجتماعي عدة مقاطع فيديو مُفبركة تُحاكي نشرات إخبارية حقيقية، بما في ذلك مقطع فيديو لتقرير كاذب عن اقتحام منزل، تضمن رسومات من سي أن أن.
وادعى مقطع آخر زورا أن يخت جي كي رولينغ غرق قبالة سواحل تركيا بعد هجوم حوت قاتل، ونسب التقرير إلى أليخاندرا كارابالو من عيادة قانون الإنترنت في كلية الحقوق بجامعة هارفارد، التي صممت الفيديو لاختبار الأداة.
وفي منشور لها، حذرت كارابالو من أن هذه التقنية قد تُضلل متلقي الأخبار الأكبر سنا على وجه الخصوص.
وكتبت: "المقلق هو سهولة تكرارها. في غضون عشر دقائق، حصلت على نسخ متعددة. وهذا يُصعّب اكتشافها ويُسهّل نشرها. إن عدم وجود علامة يجعل من السهل إضافة شعار لاحقا لجعله يبدو كأي قناة إخبارية مُحددة".
في تجربتنا الخاصة، استخدمنا مُحفِّزا لإنشاء مقاطع فيديو إخبارية مُزيَّفة تحمل شعارات شبكتي ABC وNBC، بأصوات تُحاكي أصوات مُذيعي CNN، جيك تابر، وإيرين بورنيت، وجون بيرمان، وأندرسون كوبر.
وقالت كارابالو لقناة الجزيرة: "أصبح التمييز بين الحقيقة والخيال أصعب فأصعب. وبصفتي شخصا يُجري أبحاثا حول أنظمة الذكاء الاصطناعي منذ سنوات، حتى أنا بدأتُ أُواجه صعوبة".
ويمتد هذا التحدي ليشمل الجمهور أيضا. فقد وجدت دراسة أجرتها جامعة ولاية بنسلفانيا أن 48% من المُستهلكين خُدعوا بمقاطع فيديو مُزيَّفة مُتداولة عبر تطبيقات المراسلة أو وسائل التواصل الاجتماعي.
وخلافا للاعتقاد الشائع، فإن الشباب أكثر عُرضة للمعلومات المُضلِّلة من كبار السن، ويعود ذلك إلى حد كبير إلى اعتماد الأجيال الشابة على وسائل التواصل الاجتماعي للحصول على الأخبار، والتي تفتقر إلى المعايير التحريرية والرقابة القانونية المُتبعة في المؤسسات الإخبارية التقليدية.
وأظهر استطلاع أجرته اليونسكو في كانون الأول/ ديسمبر أن 62% من مُؤثِّري الأخبار لا يتحققون من صحة المعلومات قبل مشاركتها.
وغوغل ليست وحدها في تطوير أدوات تُسهِّل انتشار الوسائط المُزيَّفة. تُتيح شركات مثل Deepbrain للمستخدمين إمكانية إنشاء مقاطع فيديو رمزية مُولّدة بالذكاء الاصطناعي، وإن كانت محدودة، إذ لا يمكنها إنتاج عروض تقديمية كاملة للمشاهد مثل Veo 3. لم تستجب Deepbrain لطلب الجزيرة للتعليق.
وبين التقرير، أن أدوات أخرى مثل Synthesia وDubverse تتيح دبلجة الفيديو، لأغراض الترجمة بشكل أساسي، كما تُتيح هذه المجموعة المتنامية من الأدوات فرصا أكبر للجهات الخبيثة. تضمّنت حادثة حديثة مقطعا إخباريا مُفبركا، حيث ظهر فيه مراسل CBS في دالاس وكأنه يُلقي تعليقات عنصرية. لا يزال البرنامج المُستخدم مجهول الهوية.
ومع ازدياد انتشار الوسائط المُصنّعة، فإنها تُشكّل مخاطر فريدة ستسمح للجهات الخبيثة بترويج محتوى مُتلاعب به ينتشر بسرعة أكبر من إمكانية تصحيحه، وفقا لكولمان.
وقال كولمان: "بحلول الوقت الذي ينتشر فيه المحتوى المزيف عبر المنصات التي لا تتحقق من هذه العلامات [وهذا ينطبق على معظمها]، من خلال القنوات التي تزيلها، أو من خلال الجهات الفاعلة السيئة التي تعلمت تزويرها، يكون الضرر قد وقع".
المصدر: عربي21
كلمات دلالية: سياسة اقتصاد رياضة مقالات صحافة أفكار عالم الفن تكنولوجيا صحة تفاعلي سياسة اقتصاد رياضة مقالات صحافة أفكار عالم الفن تكنولوجيا صحة تفاعلي تكنولوجيا علوم وتكنولوجيا علوم وتكنولوجيا الذكاء الاصطناعي التكنولوجيا الفيديوهات التزييف العميق تكنولوجيا ذكاء اصطناعي فيديوهات تزييف عميق المزيد في تكنولوجيا علوم وتكنولوجيا علوم وتكنولوجيا علوم وتكنولوجيا علوم وتكنولوجيا علوم وتكنولوجيا علوم وتكنولوجيا سياسة تكنولوجيا تكنولوجيا تكنولوجيا تكنولوجيا تكنولوجيا سياسة اقتصاد رياضة صحافة قضايا وآراء أفكار عالم الفن تكنولوجيا صحة الذکاء الاصطناعی المعلومات الم مقاطع فیدیو م الم ول د
إقرأ أيضاً:
مستشفى ياس كلينك – مدينة خليفة يطلق برنامج جراحة روبوتية متطوراً ومدعوماً بالذكاء الاصطناعي
أطلق مستشفى ياس كلينك – مدينة خليفة، برنامجه للجراحة الروبوتية في العمود الفقري، بالاعتماد على نظام ملاحة طبي مدعوم بالذكاء الاصطناعي، في خطوة متقدمة في مجال الطب الدقيق ورعاية المرضى.
وقالت الدكتورة ميسون آل كرم، المدير التنفيذي الطبي لمستشفى ياس كلينك – مدينة خليفة: «الجراحة الروبوتية لم تعد مستقبل الطب، بل أصبحت واقعه المتقدم. وتُتيح لنا هذه التقنية الوصول إلى مستويات غير مسبوقة من الدقة، وتقلِّل المخاطر وتعزِّز نتائج المرضى، حتى في أكثر الحالات تعقيداً».
ويُتيح النظام للجراحين التحكُّم في الروبوت عبر وحدة تحكُّم ذكية، ويوجِّه نظام الملاحة الطبي بدقة حركة الأدوات الجراحية داخل جسم المريض، ما يضمن الحد الأدنى من التدخُّل الجراحي، ويقلِّل المضاعفات وفترة التعافي.
وقال البروفيسور عمرو الشواربي، استشاري جراحة المخ والأعصاب في الجراحة الروبوتية: «نحن أمام نقلة نوعية في جراحات الدماغ والعمود الفقري. إنَّ الدقة الاستثنائية التي يوفِّرها هذا النظام تمنح المرضى فرص شفاء أعلى مع هامش أمان أكبر».
أخبار ذات صلةويندرج إطلاق هذا النوع من العمليات الجراحية ضمن رؤية شاملة لمستشفى ياس كلينك لدمج أحدث التقنيات الطبية في جراحة الأعصاب والعظام والجراحة العامة لديه. وتلقّى الفريق الطبي تدريبات مكثفة على هذه الجراحة الروبوتية لضمان تطبيق أعلى المعايير العالمية.
وأُجريَت في مستشفى ياس كلينك – مدينة خليفة عمليتان جراحيتان معقدتان للعمود الفقري باستخدام هذه التقنية الروبوتية، لمريضتين تجاوزت أعمارهما الخمسين والستين عاماً، كانتا تعانيان من تضيُّق القناة العصبية في المنطقة القطنية، وانزلاق غضروفي، ما كان يتسبَّب بضغط على الأعصاب القطنية وآلام في الأرجل وصعوبة المشي لفترات طويلة.
وأظهرت نتائج العمليات الأولية تحسُّن دقة التدخُّلات الجراحية، وانخفاض فترة الإقامة في المستشفى، وتراجع مستويات الألم والندوب، وعودة المرضى إلى نمط حياتهم الطبيعية بسرعة أكبر.
ويخطِّط مستشفى ياس كلينك – مدينة خليفة لتوسيع البرنامج ليشمل تخصُّصات إضافية خلال الفترة المقبلة، مع مواصلة الابتكار وتدريب الكوادر الطبية، ما يرسِّخ مكانته وجهةً طبيةً رائدةً للجراحة المتقدمة في أبوظبي ومنطقة الشرق الأوسط.