كيف يمكن للذكاء الاصطناعي أن يؤثر على الانتخابات؟
تاريخ النشر: 20th, January 2024 GMT
بينما تستعد عدة دول لتنظيم انتخابات حاسمة، خلال العام الجاري، يسود تخوف من التأثير السلبي للذكاء الاصطناعي، عن طريق الحملات المضللة المدعومة بتقنيات تحوير متقدمة.
وإذا كانت حملات التضليل السابقة، على وسائل التواصل الاجتماعي، تعتمد نشر أخبار كاذبة ومضللة فقط، فإن "الذكاء الاصطناعي يعطيها الآن دفعا جديدا" وفق المختص الأميركي في تكنولوجيا الاتصالات، علي بريلاند.
بريلاند المهتم بالبحث في مجال المعلومات المضللة على الإنترنت، قال في حديث لموقع الحرة، إن الذكاء الاصطناعي لا يشكل خطرا على سيرورة أو نزاهة الانتخابات فقط، بل قد يؤدي إلى تأجيج النزاعات في البلدان قبل وأثناء وبعد الانتخابات.
وشدد الباحث على أن تأثير الذكاء الاصطناعي "يتضاعف خلال مرحلة الاستشارات الانتخابية لحساسية تلك الفترة الزمنية".
وخلال العام 2024 "الحاسم بالنسبة للديمقراطية" وفق تعبير وكالة فرانس برس، تجري انتخابات في 60 دولة بينها، الولايات المتحدة، روسيا، والهند، وجنوب أفريقيا والجزائر وتونس.
وكانت الانتخابات الرئاسية في تايوان أول اختبار لإنجاح الانتخابات رغم عاصفة من المعلومات المضللة المعتمدة على الذكاء الاصطناعي.
وانتخب التايوانيون، لاي تشينغ تي، رئيسا، الأسبوع الماضي، رغم حملة المعلومات المضللة الواسعة ضدّه، والتي يشير خبراء بإصبع الاتهام فيها إلى الصين، وفق فرانس برس.
وتعتبر بكين، لاي، "انفصاليا خطيرا" بسبب تأكيده المتكرر على استقلال تايوان.
ذات الوكالة قالت إن منصة تيك توك، مثلا، غصت بنظريات المؤامرة والعبارات المسيئة للزعيم السياسي، في الفترة التي سبقت الانتخابات.
وعثر فريق تقصي الحقائق في فرانس برس على عدة تسجيلات مصوّرة مضللة كان مصدرها "دوين"، النسخة الصينية من التطبيق.
"قلب للموازين"يقول الخبير في تكنولوجيات الاتصال، يونس قرار، إن الذكاء الاصطناعي أثبت أنه قادر على قلب موازين أي عملية انتخابية، من خلال تأثيره المعتمد على طرق مبتكرة في تركيب الفيديوهات وإعطاء صبغة أقرب للحقيقة لأي مقطع يهدف لتوجيه الرأي العام، أو تضليله.
وفي اتصال مع موقع الحرة، لفت قرار إلى أن التأثير السلبي للذكاء الاصطناعي يمكن أن يمس بنزاهة الانتخابات في هذا البلد أو ذاك، إذ يكسر قاعدة تكافؤ الفرص، ويعطي الانطباع بأن هذا المرشح كان في هذا المكان وصرح بهذا الحديث "بينما يمكن أن يكون كل شيء ملفقا".
وأشار هذا الخبير إلى أن الذكاء الاصطناعي لديه القدرة على "فبركة الواقع" وفق تعبيره، وذلك من شأنه أن يؤثر سلبا على أي عملية انتخابية.
ويتفق بريلاند مع قرار، في كون الذكاء الاصطناعي يُحوّر حديث أي سياسي بطريقة تجعل حظوظه في إقناع الناخبين مرهونة بما يُنشر له.
يقول :"إذا نُشِر لك فيديو مفبرك وأنت مخمور مثلا، وفي وضعية غير سليمة، فلا تنتظر أن تكسب خصمك في الانتخابات".
ولفت بريلاند بالخصوص إلى تقنيات تغيير ملامح الوجه والصوت وتعبيرات الجسد، وهي جميعها طرق أضحت متاحة على أكثر من موقع يقدم خدمات الذكاء الاصطناعي.
مخادعةبريلاند قال أيضا إن قوة الذكاء الاصطناعي اختبرت كثيرا في السابق، وقد أثبتت التقنيات المعتمدة قدرتها على مخادعة ساسة كبار.
وأعطى الخبير مثالا بالرئيس الأميركي السابق، دونالد ترامب، والذي شارك على صفحته في "إكس" (تويتر سابقا) مقطع فيديو مضللا تضمن حديثا مفبركا للرئيسة السابقة لمجلس النواب الأميركي، نانسي بيلوسي.
وأثارت هذه الحادثة التي تعود لسنة 2019، ضجة كبيرة في الولايات المتحدة، حيث أثبت الذكاء الاصطناعي قدرة كبيرة على مغالطة الناس.
وبحسب تقرير لقناة "سي بي إس" الأميركية، حصد هذا المقطع نحو مليونين ونصف مليون مشاهدة، وهو "دليل على قدرة الذكاء الاصطناعي على المغالطة" وفق بريلاند.
"مصدر تهديد"صنّف المنتدى الاقتصادي العالمي، التضليل، على أنه مصدر التهديد الأكبر على مدى العامين المقبلين.
وحذّر من أن تقويض شرعية الانتخابات قد يؤدي إلى نزاعات داخلية وأعمال إرهابية وحتى "انهيار الدولة".
وتلجأ مجموعات مرتبطة خصوصا بروسيا والصين وإيران إلى التضليل المعتمد على الذكاء الاصطناعي، سعيا لـ"تشكيل وعرقلة" الانتخابات في الدول الخصمة، وفق مجموعة التحليل (Recorded Future).
في هذا الصدد، ذكّر بريلاند، بالحملات الروسية التي استهدفت تضليل الرأي العام العالمي، حول حقيقة ما يحدث في أوكرانيا، وقال إنها استخدمت جميع الوسائل لخدمة سرديتها وإطفاء أي شعلة تضامن مع الأوكرانيين.
وتابع الرجل قائلا إن روسيا التي حاولت التأثير على الانتخابات الرئاسية الأميركية العام 2016، "ستحاول حتما توظيف التضليل الذي يقوم على الذكاء الاصطناعي لإذكاء أحاسيس الكراهية بين السود والبيض مثلا أو بين المسلمين وغير الملسمين من الأميركيين خلال الفترة المقبلة خدمة لأجندتها".
طرق المواجهة وحماية البياناتبريلاند لفت إلى أن المستخدم العادي للإنترنت ليس لديه القدرة على التعرف على حقيقة أي فيديو أو صورة، هل هي مفبركة أم لا، لذلك، نصح بأن تعتمد وسائل التواصل الاجتماعي التي تعد المساحة الأولى لمشاركة الفيديوهات والصور، باستخدام أدوات التعرف على الفيديوهات والصور الأصلية من المفبركة (authenticity tools).
وقال "يمكن أن تستوحي المنصات الاجتماعية من العمل الذي قامت به خلال جائحة فيروس كورونا" وتابع "لن تكون المهمة سهلة وناجحة مئة بالمئة، لكنها ستحدّ كثيرا من التأثير السلبي للذكاء الاصطناعي".
وشدّد أيضا على ضرورة أن يعمل المرشحون للانتخابات في أي بلد، على دعوة الناخبين لاستقاء المعلومات والأخبار من مواقعهم وصفحاتهم الموثقة وعدم الانصياع وراء ما ينشر على مواقع التواصل الاجتماعي، بشكل يجعل عملية التواصل بين الناخبين والمُرشحين في منأى عن تأثير أي طرف ثالث.
من جانبها، أكدت مها الجويني، المختصة في الأخلاقيات والذكاء الاصطناعي، أن مواجهة مخاطر تأثير الذكاء الاصطناعي، تقوم على بناء منظومة قوية لحماية البيانات.
وفي حديث لموقع الحرة، أوضحت أن "من يملك البيانات (Big data) يملك سلطة التوجيه".
وقالت إن الدول العربية "التي تخطو خطوات ضئيلة جدا، نحو حماية استخدام البيانات، والذكاء الاصطناعي، ستواجه حالات من الأخبار المضللة" وهو أمر في غاية الخطورة، في نظرها.
وتابعت الجويني، وهي باحثة تونسية، قائلة إنه "في تونس مثلا، لحد الساعة لم تطلق الخطة الوطنية للذكاء الاصطناعي".
ووفق ذات الباحثة، تتباطأ عديد الدول العربية وحتى الأفريقية في اعتماد سياسات قوية لمواجهة خطر الاستخدامات المضللة للذكاء الاصطناعي.
مواعيد انتخابية هامةفي الخامس من نوفمبر المقبل، سيختار الأميركيون رئيسهم، فيما يأمل الرئيس الروسي، فلاديمير بوتين بالاعتماد على ادعائه بأنه حقق انتصارات في حرب أوكرانيا بعد عامين على غزوها، في تمديد حكمه المتواصل منذ 24 عاما، بست سنوات إضافية، في انتخابات مقررة في مارس.
وفي الهند، ستتم دعوة حوالي مليار ناخب للإدلاء بأصواتهم في إبريل ومايو عندما تنطلق الانتخابات في الدولة الأكثر سكانا في العالم والتي يسعى رئيس الوزراء، ناريندرا مودي، وحزبه "بهاراتيا جاناتا" للفوز بولاية ثالثة فيها.
وتجري أكبر عملية انتخابية عابرة للحدود الوطنية في العالم في يونيو عندما يشارك أكثر من 400 مليون شخص يحق لهم التصويت في انتخابات البرلمان الأوروبي.
وسيشكّل هذا الاقتراع اختبارا لدعم اليمينيين الذين يحققون تقدما بعد فوز "حزب الحرية" المناهض للاتحاد الأوروبي بزعامة، غيرت فيلدرز، في انتخابات هولندا، وفوز حزب رئيسة الوزراء الايطالية، جورجيا ميلوني، اليميني المتطرف "إخوة إيطاليا".
ومن المقرر أن تجري انتخابات أيضا بالجزائر وتونس، البلدان الجاران، حيث من المحتمل أن يسعى الرئيسان على التوالي، عبد المجيد تبون، وقيس سعيد، إلى الحصول على تزكية شعبية لولاية أخرى.
وهذه المواعيد الانتخابية، تشكل منعرجا في مواجهة تحديات جديدة فرضتها تقنيات الذكاء الاصطناعي، وهي بذات المناسبة، فرصة لاختبار قدرة الشعوب على التعامل مع الأخبار المضللة بحذر.
المصدر: الحرة
كلمات دلالية: الذکاء الاصطناعی للذکاء الاصطناعی انتخابات فی
إقرأ أيضاً:
خلال محاكمة.. الذكاء الاصطناعي يحيل إلى مرجع غير موجود
في محاكمة بين "أنثروبيك" للذكاء الاصطناعي وأصحاب حقوق ملكية فكرية، تضمنت مذكرة قضائية للدفاع عن الشركة الناشئة إشارة إلى مرجع وهمي لا وجود له.
بدأ الذكاء الاصطناعي يغير تدريجيا طريقة العمل في المجال القضائي. فبينما تسهّل هذه الأداة البحث في السوابق القضائية، يجب أن تخضع مخرجاتها للمراقبة بسبب قدرتها على الهلوسة.
وقد برز هذا مؤخرًا في محاكمة بين شركة "أنثروبيك" للذكاء الاصطناعي وشركات موسيقية. في أكتوبر 2023، طلبت شركات موسيقى من القضاة الاتحاديين في ولاية كاليفورنيا حظر استخدام دليلها الموسيقي لتدريب نماذج الذكاء الاصطناعي الخاصة بشركة "أنثروبيك".
رفض القضاة هذا الطلب في مارس 2025، معتبرين أنه لا يوجد دليل على ضرر لا يمكن إصلاحه. بعد ذلك، رفع المدعون دعوى قضائية أخرى تتعلق بانتهاك حقوق الطبع والنشر. تكمن إحدى نقاط الخلاف الرئيسية في هذه القضية في فحص حجم العينة المتفاعلة مع أداة "كلود" للذكاء الاصطناعي التابعة لشركة "أنثروبيك"، لتحديد وتيرة إعادة إنتاج الذكاء الاصطناعي لكلمات الأغاني المحمية أو توليدها.
مرجع وهمي
قدمت أوليفيا تشين، عالمة البيانات في شركة "أنثروبيك"، مذكرة إلى المحكمة تُجادل فيها بأن عينة من مليون تفاعل مستخدم كافية لتقديم "معدل انتشار معقول" لظاهرة نادرة: مستخدمو الإنترنت يبحثون عن كلمات الأغاني. وقدّرت أن هذه الحالة لا تُمثل سوى 0.01% من التفاعلات. وفي شهادتها، استشهدت بمقال أكاديمي نُشر في مجلة "الإحصائي الأميركي" تبيّن لاحقا أنه غير موجود.
طلب المدعون من المحكمة استدعاء أوليفيا تشين ورفض أقوالها بسبب الإحالة إلى هذا المراجع الزائف. ومع ذلك، منحت المحكمة شركة "أنثروبيك" وقتًا للتحقيق. وقد وصف محامي الشركة الناشئة الحادثة بأنها "خطأ بسيط في الاستشهاد"، وأقرّ بأن أداة "كلود" للذكاء الاصطناعي استُخدمت "لتنسيق ثلاثة مراجع ببليوغرافية على الأقل بشكل صحيح". وفي هذا السياق، اخترع الذكاء الاصطناعي مقالاً وهمياً، مع مؤلفين خاطئين لم يعملوا معًا قط.
تجنب أخطاء الذكاء الاصطناعي
تُسلّط هذه الحادثة الضوء على الانتشار المُقلق للأخطاء الناتجة عن الذكاء الاصطناعي في الإجراءات القانونية، وهي ظاهرة متنامية تُعرّض الشركات لمخاطر جسيمة، لا سيما عندما يعتمد محاموها على هذه الأدوات لجمع المعلومات وصياغة الوثائق القانونية.
يقول برايان جاكسون، مدير الأبحاث في مجموعة Info-Tech Research Group "خلق استخدام الذكاء الاصطناعي نوعًا من الكسل الذي أصبح مصدر قلق في المجال القانوني". ويضيف: "لا ينبغي استخدام أدوات الذكاء الاصطناعي كحل شامل لإنتاج الوثائق اللازمة للملفات القضائية".