تحذيرات من ترويج علاجات معجزة عبر الإنترنت
تاريخ النشر: 22nd, September 2024 GMT
تنتشر، عبر منصات التواصل الاجتماعي، إعلانات مضللة تستخدم صور أطباء معروفين ويحظون بالاحترام تم إنشاؤها بواسطة الذكاء الاصطناعي، تروّج لعلاجات "معجزة" لمرض السكري أو ارتفاع ضغط الدم، وهي ظاهرة يرى خبراء أن من الصعب لجمها.
عبر منصتي فيسبوك وانستغرام، يَعدُ هؤلاء الأطباء "المزيّفون" بعلاج لمرض السكري من دون تناول ادواء الذي عادة ما يوصف لهذه الحالات، حتى أنهم يشجعون المرضى على التخلي عن دوائهم الذي "سيقتلهم"، على قولهم، واعتماد شراب "طبيعي" غامض بدلا منه.
تعرّض عمليات الاحتيال هذه حياة مرضى كثر للخطر، وتزداد خطورتها لأنها تستند إلى صور أطباء مشهورين، مثل الدكتور ميشال سيم في فرنسا أو الدكتور مايكل موسلي في المملكة المتحدة، وهما من ضحايا ظاهرة "التزييف العميق" هذه عبر الإنترنت.
في حديث صحفي، يقول الطبيب العام البريطاني جون كورماك بشأن هذا الموضوع إن "الناس يثقون بهذه الفيديوهات لأن هؤلاء الأطباء أمضوا وقتا في بناء صدقيتهم. لذا، يصدّقهم العامة حتى عندما يقدمون ادعاءات غريبة جدا".
يقول المتخصص في الذكاء الاصطناعي هنري أدجير إنّ عمليات "التزييف العميق" هذه "بدأت فعليا خلال السنة الحالية"، مشيرا إلى أن الإعلانات تستهدف بشكل أساسي جمهورا "كبيرا في السن نوعا ما"، من خلال تشويه صورة "الأطباء الذي يظهرون كثيرا على التلفزيون".
وأكد ميشيل سيم أنه رفع دعوى على شركة "ميتا" في شأن لـ"عمليات الاحتيال" هذه.
وعيّن البريطاني هيلاري جونز، الذي يظهر في مقاطع فيديو مُبتكرة بواسطة الذكاء الاصطناعي وهو يبيع دواء مزيّفا لارتفاع ضغط الدم، خبيرا لرصد أي إعلانات مماثلة.
ويقول "حتى عندما تُحذف مقاطع الفيديو هذه، تعاود الظهور في اليوم التالي تحت عناوين أخرى".
- "أوساط نظرية المؤامرة"
اكتسبت عمليات الاحتيال بالتزييف العميق "زخما بسبب التقدم في التعلم العميق (تكنولوجيا تهدف إلى تمكين الآلة من التعلّم بنفسها)، على قول فريديريك جوري، وهو مدرس وباحث في علوم الكمبيوتر لدى جامعة "كاين".
ويشير إلى أنّ "جودة عمليات التزييف العميق" في الصور والمقاطع الصوتية والفيديوهات تقدّمت بشكل كبير، مضيفا "باتت مُتاحة أمامنا اليوم عشرات المليارات من الصور، ونحن قادرون على بناء خوارزميات يمكنها وضع نماذج لكل ما يمكن أن يظهر في الصور وتجديد الصور، وهو ما نطلق عليه الذكاء الاصطناعي التوليدي".
وفي المرحلة الأخيرة، وقعت شخصيات مثيرة للجدل مثل البروفيسور ديدييه راوول في فرنسا، ضحية لـ"التزييف العميق".
الطبيبة الاسترالية المتخصصة في الطب الطبيعي باربرا أونيل، التي تعتبر السلطات في بلدها أنها "تشكل خطرا على الصحة" بعد أن روّجت خصوصا لعلاج مضاد للسرطان، أصبحت نجمة على مواقع التواصل الاجتماعي بالاستناد إلى "التزييف العميق" الذي جعلها تبيع حبوبا من أجل "تنظيف الأوعية الدموية".
وفي اتصال هاتفي، أعرب زوجها، الذي يشارك في إدارة شركة "أونيل"، عن أسفه لأن "الكثير من الناس يستخدمون سمعة باربرا لبيع منتجات لا توصي بها شخصيا".
لا تفاجئ هذه الظاهرة هنري أدجير الذي يرى أن "هؤلاء الأشخاص هم نماذج لبعض أوساط نظرية المؤامرة".
ومن بين مقاطع الفيديو المزيفة التي تستخدم باربرا أونيل، يندرج عدد منها في إطار نظريات المؤامرة إذ تزعم أنّ المعالجة الطبيعية ماتت، وهي معلومة غير صحيحة، بعد اكتشاف زيت معجزة يُباع عبر الإنترنت.
وفي مواجهة عمليات "التزييف العميق" هذه، لا يبدي الخبراء تفاؤلا كبيرا بشأن نجاح أدوات رصدها. ويقول جوري "إنها كلعبة القط والفأر. من حيث المبدأ، لا يمكن أن تتحسن عمليات الرصد كثيرا. فإذا وجد أحد الأشخاص طريقة لتحسين اكتشافها، سيستخدم مَن يريد إنشاء صور مزيفة الطريقة نفسها للتحايل عليها". أخبار ذات صلة
المصدر: صحيفة الاتحاد
كلمات دلالية: الذكاء الاصطناعي تعلم الآلة علاج أطباء الذکاء الاصطناعی التزییف العمیق
إقرأ أيضاً:
أخطاء الذكاء الاصطناعي تربك ملخصات برايم فيديو
لم تبدأ تجربة أمازون مع تقديم ملخصات المسلسلات المعتمدة على الذكاء الاصطناعي بالطريقة التي كانت الشركة تأملها. فبدلًا من تسهيل مهمة المشاهدين وتقديم محتوى مختصر ودقيق، كشفت أولى التجارب عن مشكلات واضحة في الدقة والفهم، كان أبرزها ما حدث مع ملخص الموسم الأول من مسلسل Fallout على منصة برايم فيديو.
وبحسب ما أورده موقع GamesRadar+، فإن الملخص المُولّد بالذكاء الاصطناعي يحتوي على عدد من الأخطاء الجوهرية، من بينها معلومات غير صحيحة تتعلق بأحداث العمل وسياقه الزمني، وهو ما أثار تساؤلات حول مدى جاهزية هذه الأدوات للاستخدام الواسع دون مراجعة بشرية.
يمكن للمشاهدين الاطلاع على هذا الملخص من خلال قسم “الإضافات” الموجود ضمن صفحة الموسم الثاني من مسلسل Fallout على برايم فيديو. وعلى الرغم من أن الفيديو يبدو من الناحية التقنية متماسكًا، حيث يجمع بين المقاطع المصورة والموسيقى والحوار في قالب واحد، إلا أن محتواه يعاني من سطحية واضحة وسوء فهم لتفاصيل أساسية في القصة.
أحد أبرز الأخطاء يتمثل في تحديد الفترة الزمنية لمشاهد الفلاش باك التي تدور في مدينة لوس أنجلوس. إذ يشير الملخص إلى أن هذه المشاهد تعود إلى خمسينيات القرن الماضي، بينما الحقيقة أن أحداثها تقع في عام 2077، وهو العام المحوري في عالم Fallout. وتدور السلسلة في خط زمني بديل انفصل عن تاريخنا الحقيقي بعد عام 1945، وهي نقطة أساسية لفهم أجواء المسلسل ورسائله.
ولم يتوقف الأمر عند هذا الحد. فقد أشار موقع Gizmodo إلى أن الملخص يُسيء أيضًا فهم نهاية الموسم الأول، وهي نهاية تمهّد بوضوح لأحداث الموسم الثاني، وخاصة العلاقة التي تتشكل بين شخصية لوسي، ساكنة الملجأ، وشخصية “الغول”، أحد سكان الأراضي القاحلة المشعة. هذه العلاقة ليست مجرد تحالف عابر، بل ترتبط بشكل وثيق بالغموض الذي يدور حوله الموسم الأول بأكمله، وهو ما تجاهله الملخص أو عرضه بصورة مشوشة.
المفارقة أن الفيديو نفسه يعطي انطباعًا تقنيًا جيدًا، إذ يثبت أن نظام الذكاء الاصطناعي لدى أمازون قادر على تحرير المقاطع ودمج العناصر السمعية والبصرية بسلاسة. غير أن المشكلة الحقيقية تكمن في غياب الفهم العميق للسرد الدرامي، وهو ما يجعل هذه الملخصات غير موثوقة كمصدر لتذكير المشاهد بالأحداث أو تمهيده لموسم جديد.
ورغم أن هذه الأخطاء قد لا تؤثر بشكل مباشر على استمتاع الجمهور بالموسم الثاني من Fallout، فإنها تطرح علامات استفهام كبيرة حول استراتيجية أمازون في الاعتماد المتزايد على الذكاء الاصطناعي دون رقابة بشرية كافية. ويبدو أن حل هذه المشكلة لم يكن معقدًا، إذ كان من الممكن ببساطة عرض الفيديو على موظف شاهد المسلسل لمراجعته قبل نشره.
ولا تُعد هذه الواقعة الأولى التي تكشف عن ضعف مراقبة الجودة في محتوى الذكاء الاصطناعي لدى أمازون. ففي وقت سابق من هذا الأسبوع، اضطرت الشركة إلى سحب مقاطع دبلجة صوتية مُولّدة بالذكاء الاصطناعي لعدد من مسلسلات الأنمي، من بينها Banana Fish، بعد شكاوى واسعة من رداءة الصوت وعدم ملاءمته لطبيعة العمل.
هذا السياق يجعل من المرجح أن تقوم أمازون بسحب ملخص Fallout الحالي، وتصحيحه، ثم إعادة نشره لاحقًا. لكن المشكلة الأعمق تتعلق بالاتجاه العام للشركة نحو إدخال المزيد من المحتوى المُولّد بالذكاء الاصطناعي إلى منصتها، في وقت لم تصل فيه هذه التقنيات بعد إلى مستوى يضمن الدقة والموثوقية.
ومع قاعدة مستخدمين ضخمة مثل التي تمتلكها برايم فيديو، يصبح أي خطأ صغير مضخمًا، ويؤثر على ثقة الجمهور في المنصة. فالذكاء الاصطناعي قد يكون أداة فعالة لتسريع الإنتاج وخفض التكاليف، لكنه لا يزال، حتى الآن، بحاجة ماسة إلى إشراف بشري حقيقي، خاصة عندما يتعلق الأمر بأعمال درامية معقدة تعتمد على التفاصيل والسياق بقدر اعتمادها على الصورة والصوت.