كيف عزّز الذكاء الاصطناعي عودة عنف اليمين المتطرف في المملكة المتحدة؟
تاريخ النشر: 3rd, August 2024 GMT
نشرت صحيفة "الغارديان" البريطانية، تقريرا، للصحفيين بن كوين، ودان ميلمو، قالا فيه إنّه بعد أقل من ثلاث ساعات من هجوم الطعن، الاثنين، الذي أدّى إلى مقتل ثلاثة أطفال، تمّت مشاركة صورة تم إنشاؤها بواسطة الذكاء الاصطناعي على موقع التواصل الاجتماعي "إكس" بواسطة حساب يسمى Europe Invasion.
وجاء في الصورة المولّدة بالذكاء الاصطناعي، رجالا ملتحين، يرتدون الزي الإسلامي التقليدي خارج مبنى البرلمان، أحدهم يلوّح بسكين، خلف طفل يبكي يرتدي قميصا عليه علم المملكة المتحدة.
تم نشر التغريدة، التي تمت مشاهدتها منذ ذلك الحين 900,000 مرة، تحت عنوان: "يجب أن نحمي أطفالنا!" وتم مشاركتها بواسطة أحد الحسابات المعروفة بتفاعلها السريع، لنشر المعلومات المضلّلة حول جريمة الطعن في ساوثبورت.
إلى ذلك، تم استخدام تقنية الذكاء الاصطناعي بطرق أخرى، بما في ذلك مجموعة فيسبوك المناهضة للهجرة التي أوضحت دعوة لحضور تجمع في ميدلزبره -شمال انجلترا- من خلال إنشاء صورة لحشد كبير عند نصب الجندي المجهول للمدينة.
وقد تم استخدام منصات مثل Suno التي تستخدم الذكاء الاصطناعي لتوليد الموسيقى كاملة مع الغناء والآلات الموسيقية، لإنشاء أغانٍ عبر الإنترنت تجمع بين الإشارات إلى ساوثبورت والمحتوى المعادي للأجانب. تشمل العناوين "ملحمة ساوثبورت" التي تتميّز بصوت أنثوي للذكاء الاصطناعي يغني كلمات مثل "تصيدهم بطريقة ما".
وحذّر الخبراء من أن الأدوات الجديدة وطرق التنظيم شهدت استغلال اليمين المتطرف البريطاني المنقسم لجريمة الطعن في ساوثبورت لتوحيد وتجديد وجوده في الشوارع.
في موجة من النشاط لم نشهدها منذ سنوات، يتم الترويج لأكثر من 10 احتجاجات عبر مواقع التواصل الاجتماعي مثل "إكس" و"تيك توك" و"فيسبوك" في أعقاب الاضطرابات العنيفة في جميع أنحاء البلاد.
وكانت التهديدات بالقتل ضد رئيس وزراء المملكة المتحدة، والتحريض على مهاجمة ممتلكات الحكومة ومعاداة السامية المتطرفة من بين التعليقات على قناة "التلغرام" التابعة لإحدى الجماعات اليمينية المتطرفة، هذا الأسبوع.
وفي خضمّ المخاوف من انتشار العنف، حذّرت مؤسسة بحثية رائدة في مجال مكافحة التطرف من وجود خطر يتمثل في أن يتمكن اليمين المتطرف من تحقيق تعبئة لم نشهدها منذ ظهور رابطة الدفاع الإنجليزية في الشوارع، في العقد الثاني من القرن الحادي والعشرين.
وقد جاء بُعد جديد إضافي مع ظهور أدوات الذكاء الاصطناعي التي يسهّل الوصول إليها والتي يستخدمها المتطرفون لإنشاء مواد تتراوح من الصور التحريضية إلى الأغاني والموسيقى.
وقال أندرو روجويسكي، وهو مدير معهد الذكاء الاصطناعي المرتكز على الناس في جامعة ساري، إن التقدّم مع توفر أدوات توليد الصور على نطاق واسع عبر الإنترنت الآن، يعني أن "أي شخص يمكنه إنشاء أي شيء".
وأضاف: "إن قدرة أي شخص على إنشاء صور قوية باستخدام الذكاء الاصطناعي التوليدي أمر مثير للقلق الشديد. وتقع المسؤولية على مقدمي نماذج الذكاء الاصطناعي لتعزيز الحواجز المضمنة داخل النموذج لجعل إنشاء مثل هذه الصور أكثر صعوبة".
من جهته، قال مدير الأبحاث في مجموعة الحملة Hope Not Hate، جو مولهال، إن استخدام المواد التي تم إنشاؤها بواسطة الذكاء الاصطناعي كان ناشئا ولكنه يعكس التداخل والتعاون المتزايد عبر الإنترنت بين مجموعة من الأفراد والمجموعات.
في حين تستمر المنظمات اليمينية المتطرفة مثل Britain First وPatriotic Alternative في طليعة التعبئة والتحريض، فإن مجموعة من الأفراد غير المنتمين إلى أي مجموعة معينة مهمة بنفس القدر.
قال مولهال: "تتكوّن هذه من آلاف الأفراد الذين يقدمون تبرعات صغيرة من الوقت وأحيانا المال للتعاون نحو أهداف سياسية مشتركة، خارج الهياكل التنظيمية التقليدية تماما. إذ تفتقر هذه الحركات إلى قادة رسميين ولكنها تمتلك شخصيات بارزة، غالبا ما يتم اختيارها من مجموعة متزايدة من 'المؤثرين' اليمينيين المتطرفين على وسائل التواصل الاجتماعي".
من حيث الترويج للاحتجاجات، تم استخدام وسم #enoughisenough من قبل بعض المؤثرين اليمينيين وفقا لجو أوندراك، المحلل البارز في Logically، وهي شركة بريطانية تراقب التضليل.
وقال: "الأمر المهم هو كيف تم استخدام هذه العبارة والوسم سابقا للنشاط المناهض للمهاجرين". كما سلّط المحللون الضوء على استخدام الروبوتات. استشهدت مبادرة Tech Against Terrorism، التي أطلقها فرع من الأمم المتحدة، بحساب "تيك توك" الذي بدأ في نشر المحتوى فقط بعد هجوم ساوثبورت، الاثنين.
قال متحدث باسم الشركة: "كانت جميع المنشورات مرتبطة بساوثبورت، حيث دعا معظمها إلى الاحتجاجات بالقرب من موقع الهجوم في 30 تموز/ يوليو. وعلى الرغم من عدم وجود محتوى سابق، فقد جمعت المنشورات المتعلقة بساوثبورت أكثر من 57000 مشاهدة تراكمية على "تيك توك" وحده في غضون ساعات. هذا يشير إلى أن شبكات الروبوتات كانت تروج لهذه المواد بنشاط".
تلعب مجموعة من الأفراد والجماعات حول تومي روبنسون، وهو الناشط اليميني المتطرّف الذي فرّ إلى الخارج، في وقت سابق من هذا الأسبوع، قبل جلسة المحكمة، دورا مركزيا. ومن بين الآخرين لورانس فوكس، الممثل الذي تحول إلى ناشط يميني والذي كان يشارك معلومات مضللة في الأيام الأخيرة، ومواقع نظرية المؤامرة مثل شبكة "سي إن إن".
وعلى القناة التي تديرها UNN على "تلغرام" ابتهج المعلّقون بالعنف الذي شوهد خارج داونينغ ستريت، الأربعاء. وقال أحدهم: "آمل أن يحرقوه بالكامل". ودعا آخر إلى شنق كير ستارمر، رئيس الوزراء، قائلا: "يحتاج ستارمر إلى معاملة موسوليني".
ومن بين أولئك الذين تم رصدهم على الأرض أثناء أعمال الشغب في ساوثبورت، كان هناك نشطاء من البديل الوطني، الذي يُعتبر أحد أسرع الجماعات اليمينية المتطرفة نموا في الآونة الأخيرة. كما سعت مجموعات أخرى، بما في ذلك تلك التي انقسمت حول مواقفها بشأن الصراعات مثل الحرب في أوكرانيا أو الاحتلال الإسرائيلي، إلى المشاركة.
وقال تيم سكويريل، مدير الاتصالات في معهد الحوار الاستراتيجي لمكافحة التطرف، إن اليمين المتطرف كان يسعى إلى التعبئة في الشارع في العام الماضي، بما في ذلك يوم الهدنة وفي عروض الأفلام التي قدمها روبنسون.
وأضاف: "إن هذه البيئة محمومة ولا تتفاقم إلا بسبب صحة بيئة المعلومات عبر الإنترنت التي هي الأسوأ في السنوات الأخيرة".
"يظل روبنسون، أحد المنظمين الأكثر فعالية في اليمين المتطرف في المملكة المتحدة. ومع ذلك، فقد شهدنا أيضا صعود الحسابات، الكبيرة والصغيرة، التي تنتقي القصص الإخبارية التي تروق للحساسيات المناهضة للمهاجرين والمسلمين، ولا تهتم بنشر المعلومات غير المؤكدة.." يضيف المقال.
ويختم بالقول: "هناك خطر يتمثّل في إمكانية استغلال هذه اللحظة لمحاولة خلق تعبئة في الشوارع تشبه إلى حد كبير العقد الثاني من القرن الحادي والعشرين".
المصدر: عربي21
كلمات دلالية: سياسة اقتصاد رياضة مقالات صحافة أفكار عالم الفن تكنولوجيا صحة تفاعلي سياسة اقتصاد رياضة مقالات صحافة أفكار عالم الفن تكنولوجيا صحة تفاعلي تكنولوجيا علوم وتكنولوجيا علوم وتكنولوجيا الذكاء الاصطناعي المملكة المتحدة تيك توك المملكة المتحدة الذكاء الاصطناعي تيك توك المزيد في تكنولوجيا علوم وتكنولوجيا علوم وتكنولوجيا علوم وتكنولوجيا علوم وتكنولوجيا علوم وتكنولوجيا علوم وتكنولوجيا سياسة سياسة تكنولوجيا تكنولوجيا تكنولوجيا تكنولوجيا تكنولوجيا تكنولوجيا تكنولوجيا سياسة اقتصاد رياضة صحافة أفكار عالم الفن تكنولوجيا صحة الذکاء الاصطناعی المملکة المتحدة الیمین المتطرف عبر الإنترنت تم استخدام
إقرأ أيضاً:
هل يخفي الذكاء الاصطناعي عنصرية خلف خوارزمياته الذكية؟
مؤيد الزعبي
بما أننا مقبلون على مرحلة جديدة من استخدامات الذكاء الاصطناعي وجعله قادرًا على اتخاذ القرارات بدلًا عنَّا يبرز سؤال مهم؛ هل سيصبح الذكاء الاصطناعي بوابتنا نحو مجتمع أكثر عدلًا وإنصافًا؟ أم أنه سيعيد إنتاج تحيزاتنا البشرية في قالب رقمي أنيق؟ بل الأخطر من ذلك: هل سيغدو الذكاء الاصطناعي أداة عصرية تمارس من خلالها العنصرية بشكل غير مُعلن؟
قد تحب- عزيزي القارئ- تصديق أن هذه الأنظمة "ذكية" بما يكفي لتكون حيادية، لكن الحقيقة التي تكشفها الدراسات أكثر تعقيدًا؛ فالذكاء الاصطناعي في جوهره يتغذى على بياناتنا وتاريخنا، وعلى ما فينا من تحامل وتمييز وعنصرية، وبالتالي فإن السؤال الحقيقي لا يتعلق فقط بقدرة هذه الأنظمة على اتخاذ قرارات عادلة، بل بمدى قدرتنا نحن على برمجتها لتتجاوز عيوبنا وتاريخنا العنصري، ولهذا في هذا المقال نقترب من هذه المنطقة الرمادية، حيث تتقاطع الخوارزميات مع العدالة، وحيث قد تكون التقنية المنقذ أو المجرم المتخفي.
لنقرّب الفكرة بمثال واقعي: تخيّل شركة تستخدم الذكاء الاصطناعي لفرز السير الذاتية واختيار المتقدمين للوظائف. إذا كانت خوارزميات هذا النظام مبنية على بيانات تحمل انحيازًا ضد جنس أو لون أو جنسية معينة، فقد يستبعد المرشحين تلقائيًا بناءً على تلك التحيزات. وهذا ليس ضربًا من الخيال؛ فقد وجدت دراسة حديثة أجرتها جامعة واشنطن (أكتوبر 2024) أن نماذج لغوية كبيرة أظهرت تفضيلًا واضحًا لأسماء تدلّ على أصحاب البشرة البيضاء بنسبة 85%، مقابل 11% فقط لأسماء مرتبطة بالنساء، و0% لأسماء تعود لأشخاص من ذوي البشرة السوداء، تُظهر هذه الأرقام المقلقة كيف أن خوارزميات الذكاء الاصطناعي، والتي تستخدمها نحو 99% من شركات "فورتشن 500"، يمكن أن تؤثر سلبًا على فرص ملايين الأشخاص الباحثين عن عمل، لا لسبب سوى أنهم وُلدوا بهوية مختلفة، أي أن تحيّز هذه الأنظمة يمكن أن يمس ملايين الباحثين عن العمل.
الأمر يزداد خطورة عند الحديث عن أنظمة التعرف على الوجوه، والتي تُستخدم حاليًا في تعقب المجرمين ومراقبة الأفراد. دراسات عديدة أثبتت أن هذه الأنظمة تخطئ بنسبة تصل إلى 34% عند التعامل مع النساء ذوات البشرة الداكنة، كما تُسجَّل أخطاء في التعرف على الوجوه الآسيوية، ما قد يؤدي إلى اعتقالات خاطئة أو مراقبة غير مبررة لأشخاص أبرياء، فقط لأن الخوارزمية لم تتعلم بشكل عادل، وتخيل الآن كيف سيكون الأمر عندما يدخل الذكاء الاصطناعي- بكل تحيزاته- إلى قاعات المحاكم، أو إلى أنظمة القضاء الإلكترونية، ليصدر أحكامًا أو يوصي بعقوبات مشددة، وحينها بدلًا من أن نصل لقضاء عادل سنصل لعدالة مغلفة بواجهة من الحياد الزائف.
ولننتقل إلى السيناريو الأكثر رعبًا: الذكاء الاصطناعي في المجال العسكري. ما الذي قد يحدث إذا تم برمجة أنظمة قتالية لتحديد "العدو" بناءً على لون بشرة أو جنسية؟ من يتحمل المسؤولية حين ترتكب هذه الأنظمة مجازر على أساس تحيز مبرمج مسبقًا؟ تصبح هذه الأنظمة أداة للقتل بعنصرية عقل إلكتروني، ومن هنا ستتفاقم العنصرية، وستصبح هذه الأنظمة بلا شك أداة لقتل كل ما تراه عدوًا لها ليأتي اليوم الذي تجدنا فيه نحن البشر ألذ أعدائها.
في قطاع الرعاية الصحية أيضًا يمكن للذكاء الاصطناعي أن يكون عنصريًا خصوصًا لو تم برمجتها لتتحكم بمستحقي الدعم الصحي أو حتى استخدامها في أنظمة حجز مواعيد العمليات، فلو وجد أي عنصرية بهذه الأنظمة؛ فبالطبع ستعطي الأولوية لأصحاب بشرة معينة أو جنسية معينة مما سيحرم الكثيرين من الوصول للعلاج في الوقت المناسب.
حتى نكون منصفين هنا نحتاج إلى تمييز دقيق بين نوعين من عنصرية الذكاء الاصطناعي: العنصرية المقصودة: الناتجة عن برمجة متعمدة تخدم مصالح أو توجهات محددة، والعنصرية غير المقصودة: الناتجة عن تغذية الأنظمة ببيانات غير عادلة أو تمثل واقعًا عنصريًا، فتُصبح الخوارزميات انعكاسًا له.
وأيضًا هناك مشكلة مهمة يجب معالجتها فلو عدنا لموضوع الرعاية الصحية؛ فلو قمنا بإدخال بيانات المرضى على هذه الأنظمة وكان حجم البيانات لفئة معينة أكثر من فئة أخرى فربما يعالج الذكاء الاصطناعي هذا الأمر على أن فئة معينة لا تحتاج للعلاج أو تحتاج لرعاية صحية أقل من غيرها وبالتالي يستثنيها من علاجات معينة أو مطاعيم معينة مستقبلًا، ولهذا يجب أن نعمل على تنقيح بيناتنا من العنصرية قدر الإمكان لتجنب تفاقم الأزمة مستقبلا.
يجب ألا نعتقد أبدًا بأن الذكاء الاصطناعي سيكون منصفًا لمجرد أنه آلة لا تفاضل شيء على شيء، فهذا سيمكن الصورة النمطية الموجودة حاليًا في مجتمعاتنا، فالذكاء الاصطناعي تقنية مازالت عمياء وليست واعية بما يكفي لتميز أية التمييز وتحذفه من برمجياتها، إنما تأخذ الأنماط الموجودة وتبني عليها، وسنحتاج وقت أطول لمعالجة هذه الفجوة كلما مضى الوقت.
إذا سألتني عزيزي القارئ ما هي الحلول الممكنة نحو ذكاء اصطناعي عادل وشامل، فالحلول كثيرة أهمها أن نوجد أدوات ذكاء اصطناعي قادرة على إيجاد العنصرية وتبدأ بمعالجتها واستثنائها في خوارزمياتها، وهذه مسؤولية الشركات الكبرى التي تبني نماذج الذكاء الاصطناعي، وثانيًا يجب أن نطور أنظمة ذكاء اصطناعي مبنية على العنصرية فهذه الأنظمة ستطور من نفسها وستكون عدوة للبشرية في قادم الأيام، أيضًا يجب أن يكون هناك تنويع في البيانات فكلما انعكس التنوع في البيانات والتصميم، كلما انخفضت احتمالية انتشار النتائج العنصرية وحققنا الإنصاف المطلوب.
في النهاية يجب القول إن الذكاء الاصطناعي ليس عدوًا بالضرورة، لكنه قد يكون كذلك إذا تركناه يتغذّى على أسوأ ما فينا وأقصد هنا العنصرية.
رابط مختصر