تحذيرات من ترويج علاجات معجزة عبر الإنترنت
تاريخ النشر: 22nd, September 2024 GMT
تنتشر، عبر منصات التواصل الاجتماعي، إعلانات مضللة تستخدم صور أطباء معروفين ويحظون بالاحترام تم إنشاؤها بواسطة الذكاء الاصطناعي، تروّج لعلاجات "معجزة" لمرض السكري أو ارتفاع ضغط الدم، وهي ظاهرة يرى خبراء أن من الصعب لجمها.
عبر منصتي فيسبوك وانستغرام، يَعدُ هؤلاء الأطباء "المزيّفون" بعلاج لمرض السكري من دون تناول ادواء الذي عادة ما يوصف لهذه الحالات، حتى أنهم يشجعون المرضى على التخلي عن دوائهم الذي "سيقتلهم"، على قولهم، واعتماد شراب "طبيعي" غامض بدلا منه.
تعرّض عمليات الاحتيال هذه حياة مرضى كثر للخطر، وتزداد خطورتها لأنها تستند إلى صور أطباء مشهورين، مثل الدكتور ميشال سيم في فرنسا أو الدكتور مايكل موسلي في المملكة المتحدة، وهما من ضحايا ظاهرة "التزييف العميق" هذه عبر الإنترنت.
في حديث صحفي، يقول الطبيب العام البريطاني جون كورماك بشأن هذا الموضوع إن "الناس يثقون بهذه الفيديوهات لأن هؤلاء الأطباء أمضوا وقتا في بناء صدقيتهم. لذا، يصدّقهم العامة حتى عندما يقدمون ادعاءات غريبة جدا".
يقول المتخصص في الذكاء الاصطناعي هنري أدجير إنّ عمليات "التزييف العميق" هذه "بدأت فعليا خلال السنة الحالية"، مشيرا إلى أن الإعلانات تستهدف بشكل أساسي جمهورا "كبيرا في السن نوعا ما"، من خلال تشويه صورة "الأطباء الذي يظهرون كثيرا على التلفزيون".
وأكد ميشيل سيم أنه رفع دعوى على شركة "ميتا" في شأن لـ"عمليات الاحتيال" هذه.
وعيّن البريطاني هيلاري جونز، الذي يظهر في مقاطع فيديو مُبتكرة بواسطة الذكاء الاصطناعي وهو يبيع دواء مزيّفا لارتفاع ضغط الدم، خبيرا لرصد أي إعلانات مماثلة.
ويقول "حتى عندما تُحذف مقاطع الفيديو هذه، تعاود الظهور في اليوم التالي تحت عناوين أخرى".
- "أوساط نظرية المؤامرة"
اكتسبت عمليات الاحتيال بالتزييف العميق "زخما بسبب التقدم في التعلم العميق (تكنولوجيا تهدف إلى تمكين الآلة من التعلّم بنفسها)، على قول فريديريك جوري، وهو مدرس وباحث في علوم الكمبيوتر لدى جامعة "كاين".
ويشير إلى أنّ "جودة عمليات التزييف العميق" في الصور والمقاطع الصوتية والفيديوهات تقدّمت بشكل كبير، مضيفا "باتت مُتاحة أمامنا اليوم عشرات المليارات من الصور، ونحن قادرون على بناء خوارزميات يمكنها وضع نماذج لكل ما يمكن أن يظهر في الصور وتجديد الصور، وهو ما نطلق عليه الذكاء الاصطناعي التوليدي".
وفي المرحلة الأخيرة، وقعت شخصيات مثيرة للجدل مثل البروفيسور ديدييه راوول في فرنسا، ضحية لـ"التزييف العميق".
الطبيبة الاسترالية المتخصصة في الطب الطبيعي باربرا أونيل، التي تعتبر السلطات في بلدها أنها "تشكل خطرا على الصحة" بعد أن روّجت خصوصا لعلاج مضاد للسرطان، أصبحت نجمة على مواقع التواصل الاجتماعي بالاستناد إلى "التزييف العميق" الذي جعلها تبيع حبوبا من أجل "تنظيف الأوعية الدموية".
وفي اتصال هاتفي، أعرب زوجها، الذي يشارك في إدارة شركة "أونيل"، عن أسفه لأن "الكثير من الناس يستخدمون سمعة باربرا لبيع منتجات لا توصي بها شخصيا".
لا تفاجئ هذه الظاهرة هنري أدجير الذي يرى أن "هؤلاء الأشخاص هم نماذج لبعض أوساط نظرية المؤامرة".
ومن بين مقاطع الفيديو المزيفة التي تستخدم باربرا أونيل، يندرج عدد منها في إطار نظريات المؤامرة إذ تزعم أنّ المعالجة الطبيعية ماتت، وهي معلومة غير صحيحة، بعد اكتشاف زيت معجزة يُباع عبر الإنترنت.
وفي مواجهة عمليات "التزييف العميق" هذه، لا يبدي الخبراء تفاؤلا كبيرا بشأن نجاح أدوات رصدها. ويقول جوري "إنها كلعبة القط والفأر. من حيث المبدأ، لا يمكن أن تتحسن عمليات الرصد كثيرا. فإذا وجد أحد الأشخاص طريقة لتحسين اكتشافها، سيستخدم مَن يريد إنشاء صور مزيفة الطريقة نفسها للتحايل عليها". أخبار ذات صلة
المصدر: صحيفة الاتحاد
كلمات دلالية: الذكاء الاصطناعي تعلم الآلة علاج أطباء الذکاء الاصطناعی التزییف العمیق
إقرأ أيضاً:
الذكاء الاصطناعي كمرآة للإنسان: هل نحن فعلًا بهذا القبح؟
محمد بن زاهر العبري
لطالما تغنّى الإنسان بتفوّقه العقلي وتفرده الأخلاقي بين الكائنات الحية، وظل يؤمن بأن عقله هو ما يميزه ويرفعه فوق سائر الموجودات، حتى جاءت حقبة الذكاء الاصطناعي لتطرح سؤالًا جديدًا مقلقًا لا يتعلق فقط بتفوق الآلة؛ بل بكيفية انعكاس الإنسان نفسه في تلك الآلة.
الذكاء الاصطناعي ليس مجرد تقنية أو أداة حيادية، بل هو بناء إنساني يحمل في طياته القيم والميول والانحيازات التي يغرسها فيه الإنسان بشكل واع أو غير واع، لذلك فإن الذكاء الاصطناعي لا يكشف فقط عن قدرات الإنسان؛ بل يعرّي نواياه ونقاط ضعفه وصراعاته الأخلاقية.
فحين درّبنا الخوارزميات على التعرّف على الوجوه مثلًا اكتشفنا أنها أكثر ميلا مع الوجوه البيضاء عن الوجوه السمراء، وحين تركنا الذكاء الاصطناعي يطوّر نفسه اعتمادًا على المحتوى المتاح على الإنترنت صار عنصريًا وكارهًا للنساء ومليئًا بالتحيّزات ذاتها التي حاولنا نفيها عن أنفسنا.
الذكاء الاصطناعي إذًا لا يخترع القبح من فراغ، بل يعكس القبح الموجود فينا، في بياناتنا، في مواقفنا، وفي قراراتنا اليومية التي لم ننتبه أحيانًا إلى ظلمها وعدم عدالتها.
كل صورة نمطية ترسّخت في المجتمع ستجد طريقها إلى الخوارزمية، وكل تحيّز مرّ دون مراجعة سيتحوّل إلى منطق برمجي محايد ظاهريًا لكنه مشوّه جوهريًا، لدرجة أننا يوما قد نجده يقول لنا: فعلا ينبغي محو فلسطين من خارطة العالم!
نحن اليوم لا نقف فقط أمام مرآة تقنية؛ بل أمام مرآة أخلاقية تسألنا عمّا فعلناه في مجتمعاتنا، وتساءلنا ماذا فعلناه بأنفسنا. الذكاء الاصطناعي لا يبتكر الشر؛ بل يستعيره من الإنسان وهذا ما يجعل سؤال المستقبل سؤالًا أخلاقيًا قبل أن يكون تقنيًا، وهو:
كيف نمنع الذكاء الاصطناعي من أن يكون امتدادًا لقبحنا؟ وكيف نحوّله إلى فرصة لإعادة النظر في أنفسنا وفي ما نعتبره طبيعيًا أو مقبولًا؟
ربما لا يكون الذكاء الاصطناعي نقمة في حد ذاته؛ بل لعنة صادقة ومرآة تكشف ما نخجل من رؤيته في وجوهنا، وإن كانت هذه الحقيقة قاسية فهي البداية الضرورية لأية محاولة تصحيح أو تغيير فحين نعرف أننا نرسم القبح في خوارزمياتنا يمكننا أن نتعلّم كيف نرسم الجمال أيضا.
رسالة المقالة هذه هي: أيها الإنسان، ما لم تزرع في قلبك الجمال والمحبة والخير، لن تجد الذكاء الاصطناعي يوما سيقترحه عليك، لأنه وببساطة انعكاسك الأخلاقي.