«تريندز» يعقد في مقر «الشيوخ» الفرنسي مؤتمر «محاربة الإرهاب في حقبة الذكاء الاصطناعي»
تاريخ النشر: 17th, April 2025 GMT
أبوظبي (الاتحاد)
طالب خبراء وأكاديميون ومتخصصون ورجال دين، بتعزيز الدفاعات السيبرانية، وتطبيق إجراءات مضادة مدعومة بالذكاء الاصطناعي، واستحداث أدوات يمكنها كشف وتعطيل وشل الشبكات الرقمية للجماعات الإرهابية والتيارات المتطرفة التي تستغل الذكاء الاصطناعي لنشر أفكارها وخطاباتها والترويج لأيديولوجيتها الهدامة.
كما شددوا على أهمية فرض لوائح أكثر صرامة على شركات التكنولوجيا، وإجبارها على كشف الدعاة الذين يستغلون منصاتهم لنشر الفتنة والتطرف والإرهاب، خاصة جماعة الإخوان المسلمين وأيديولوجيتها، إلى جانب حظر المنظمات التابعة لها من العمل في مختلف دول العالم، مؤكدين ضرورة تطوير تقنيات لكشف حملات التضليل المعلوماتي، وحروب السرديات الإخوانية، بالإضافة إلى حوكمة الذكاء الاصطناعي، والضغط على المنصات الرئيسية، للحد من انتشار المحتوى المضلل.
جاء ذلك خلال مؤتمر «محاربة الإرهاب في حقبة الذكاء الاصطناعي»، الذي عقده مركز تريندز للبحوث والاستشارات في قصر لوكسمبورج بمقر مجلس الشيوخ الفرنسي، بالتعاون مع السيناتور نتالي جوليه، واختتم به المحطة الأولى من جولته البحثية العالمية التي استمرت أربعة أيام في فرنسا، وتضمنت أيضاً مناقشة سبل التعاون مع وزارة الداخلية الفرنسية في مجال مجابهة التطرف والإرهاب.
وشهد أعمال المؤتمر فهد سعيد الرقباني، سفير دولة الإمارات لدى فرنسا، والدكتور رياض ياسين عبدالله، سفير الجمهورية اليمنية لدى فرنسا، وجمع من الأكاديميين والخبراء والباحثين والمفكرين والإعلاميين والمتخصصين في قضايا جماعات الإسلام السياسي والتيارات المتطرفة والإرهابية.
وأدارت المناقشات السيناتور نتالي جوليه، عضوة مجلس الشيوخ الفرنسي عن مقاطعة أورن، واستهلت أعمال المؤتمر قائلة: «جماعة الإخوان المسلمين منظمة إرهابية، ويجب أن نسمي الأمور بمسمياتها، كما يجب أن ننسق الجهود لوضع هذه الجماعة على لائحة الإرهاب».
استغلال الذكاء الاصطناعي
قال الدكتور محمد عبدالله العلي، الرئيس التنفيذي لمركز تريندز للبحوث والاستشارات، خلال كلمته الترحيبية في المؤتمر، إن الذكاء الاصطناعي يحمل فوائد جمة، ولكنه فتح آفاقاً جديدة أمام الجماعات المتطرفة، مكنتها من توسيع أدواتها ونطاق عملها، واستغلال تقنيات الذكاء الاصطناعي التوليدي وروبوتات المحادثة والألعاب الرقمية، والتحليلات التنبؤية، لاستقطاب المجندين الجدد، واستهداف الفئات الأكثر عرضة للتأثير.
وذكر أن استخدام الذكاء الاصطناعي من قِبل الجماعات المتطرفة سيزداد خلال الأعوام المقبلة، مما يحتم على الدول والمؤسسات تطوير تقنيات مضادة تشمل التنبؤ، والتحصين، والملاحقة، في إطار مقاربات شاملة لمكافحة التطرف والإرهاب، مضيفاً أن العلاقة المتغيرة والمتسارعة بين الذكاء الاصطناعي والتطرف العنيف، تتطلب استباق التهديدات المستقبلية، وتصميم نماذج مبتكرة تعزز جهود مكافحة الإرهاب ضمن هذا العصر الرقمي المتحوّل.
وأشار الدكتور العلي إلى أن العالم يقف اليوم أمام منعطف حاسم، فالمجال الرقمي بات ساحة متنازعاً عليها، تتطلب تعاوناً دولياً، وابتكاراً منهجياً، ويقظةً جماعية، ويجب أن يكون التقدم التكنولوجي عاملاً داعماً للأمن الجماعي والقيم الإنسانية والديمقراطية، وليس تقويضها.
كشف الدعاية الإرهابية
بدوره، أكد الدكتور محمد حمد الكويتي، رئيس مجلس الأمن السيبراني لحكومة دولة الإمارات، في كلمة المؤتمر الرئيسية، أن الذكاء الاصطناعي له دور مزدوج في مكافحة التطرف والإرهاب من ناحية، وتسريعهما من ناحية أخرى، ولكن عند استخدامه بمسؤولية، يُعد حليفاً قوياً في معركة العالم ضد الإرهاب، مبيناً أن الذكاء الاصطناعي يسرِّع عمليات البحث والتتبع، وكشف الدعاية الإرهابية وتفكيكها، مما يعطّل قنوات تجنيد الشباب.
وأوضح أن الذكاء الاصطناعي يمتلك قدرات تنبؤية تمكنه من توقع الهجمات المحتملة، مما يعزز الإجراءات الاستباقية، كما يمكنه تحديد الأفراد المعرضين للتطرف وتوجيههم نحو محتوى معتدل، وفي المقابل قد تستغل الجماعات المتطرفة الذكاء الاصطناعي للتخطيط لهجماتها، وأتمتة التجنيد، ونشر المعلومات المضللة بسرعة وكفاءة عاليتين.
وطالب الكويتي بتعزيز التعاون العالمي والشراكات لمواجهة استغلال الجماعات المتطرفة لتقنيات الذكاء الاصطناعي، إلى جانب تعميق التعاون بين الحكومات لسن قوانين رادعة، والشركات التقنية لتحسين الأمن السيبراني، ومراكز الأبحاث لتطوير أدوات ذكاء اصطناعي أخلاقية، مبيناً أن العالم قادر على تحويل التكنولوجيا من سلاح للدمار إلى أداة للسلام.
أدوات مكافحة التطرف
يرى بريانك ماثور، المؤسس والرئيس التنفيذي لشركة Mythos Labs الأميركية، أن الذكاء الاصطناعي سيكون قوة مضاعفة لمكافحة الإرهاب، وتأثيره مدفوع بثلاثة عوامل قوية: «تأثير إليزا، والاعتماد العالمي شبه المتزامن على الذكاء الاصطناعي، وتقارب الذكاء الاصطناعي مع التكنولوجيا الناشئة الأخرى». وبين أن وكالات إنفاذ القانون والمجتمع المدني تستخدم أدوات لمكافحة التطرف، ومنها «Aldous» و«Mythos Labs»، حيث يمكن لهذه الأدوات مراقبة وسائل التواصل الاجتماعي لتحديد المحتوى المتطرف وتحليله، إلى جانب تحليل البيانات لتحديد الأنماط والروابط بين الأفراد والجماعات المتطرفة، فضلاً عن قدرتها على تحديد الأهداف المحتملة للهجمات المتطرفة، مما يساعد على اتخاذ إجراءات وقائية.
استراتيجيات لمكافحة استخدام التكنولوجيا من قبل المنظمات الإرهابية
أما الدكتور جان مارك ريكلي، رئيس قسم المخاطر العالمية والناشئة، مؤسس ومدير مبادرة بوليماث مركز جنيف للسياسة الأمنية، فذكر أن الاستخدام المحتمل للتكنولوجيا الناشئة من قبل المنظمات والجماعات الإرهابية يمكن أن تكون له عواقب وخيمة، حيث يؤثر على الأمن القومي والاستقرار العالمي، لذلك من المهم أن تعمل الحكومات والمنظمات الدولية على تطوير استراتيجيات لمكافحة استخدام التكنولوجيا الناشئة من قبل المنظمات الإرهابية.
وبين أن العوامل الدافعة لاستخدام التكنولوجيا الناشئة من قبل الإرهاب، تشمل عناصر هيكلية تساهم في تطوير التكنولوجيا، مثل زيادة القدرة الحسابية، وتوافر البيانات، وتحسينات التعلم الآلي، وانتشار التكنولوجيا، محذراً من إمكانية التوسع في استخدام التكنولوجيا الناشئة لشن هجمات إلكترونية على البنية التحتية، واستخدام الطائرات من دون طيار والروبوتات لتنفيذ هجمات مادية.
من جانبه، أكد سيرغي ستروبانتس، المدير الإقليمي لأوروبا والشرق الأوسط وشمال أفريقيا، المدير العالمي للأمن والدفاع والاستخبارات في معهد الاقتصاد والسلام البلجيكي، أن الذكاء الاصطناعي لم يعد مجرد أداة للتقدم، بل سلاح في أيدي الإرهابيين، يُستخدم للتجنيد والهجمات الإلكترونية والحرب المستقلة، فما بين التطرف المدعوم بالذكاء الاصطناعي إلى الدعاية المزيفة العميقة والطائرات من دون طيار المستقلة، يستغل الإرهابيون التكنولوجيا بمعدل ينذر بالخطر، ويجب تطوير استراتيجيات عاجلة لمكافحة الإرهاب بالسرعة نفسها لمواجهة التحدي.
وأشار إلى أنه يمكن تحديد مستقبل الإرهاب جزئياً بالذكاء الاصطناعي وتطبيقه، فالتكنولوجيا، خاصة الذكاء الاصطناعي، تغير ديناميكيات كيفية تواصل المنظمات الإرهابية وتجنيدها، مضيفاً أن معهد الاقتصاد والسلام يواصل البحث في هذه الاتجاهات وتحليلها، ويقدم رؤى حول كيفية كون الذكاء الاصطناعي أداة للأمان، وعاملاً مضاعفاً للتهديد في يد الإرهاب.
من جانبه، كشف الدكتور وائل صالح، مستشار شؤون الإسلام السياسي والتطرف في «تريندز»، عن أن حملات التضليل الإعلامي وحروب السرديات الذكية المدعومة بتقنيات الذكاء الاصطناعي التي تشنها الجماعة المتطرفة على الدول والمجتمعات العربية، تهدف إلى خلق تناقضات ما بين الدولة والمجتمع من جانب، وبين الجماعات والفئات المكونة للمجتمع من جانب آخر، لإحداث خلل في تلك العلاقة، والتي هي الحبل السري لرأس المال الاجتماعي.
وطالب بتطوير وتحديث تقنيات للكشف والاستجابة التكنولوجية لحملات التضليل المعلوماتي وحروب السرديات الإخوانية، إلى جانب تفكيك سرديات جماعة الإخوان المسلمين، من خلال السرد المضاد والمرونة المعرفية، فضلاً عن تدريب المواطنين على التفكير النقدي الرقمي ودعم الأصوات المسلمة المعتدلة القادرة على تفكيك السرديات المسلمة من الداخل، بالإضافة إلى حوكمة الذكاء الاصطناعي.
وفي السياق ذاته، قال الإمام محمد التوحيدي، نائب رئيس المجلس الإسلامي العالمي لعلماء الدين، إن العصر الرقمي طمس الخطوط بين الحرب والسلام، وبين الحقيقة والأكاذيب، فالعالم يواجه عدواً خبيثاً يتمثل في «الإرهاب المقنع بالتكنولوجيا»، وفي قلب هذا الخطر تقف جماعة الإخوان المسلمين، لتستخدم أيديولوجيتها واستغلالها الذكي للمنصات الرقمية لتقويض أسس الحرية والعلمانية والإخاء، مبيناً أن جماعة الإخوان ووكلاءها في أوروبا مهندسو الفوضى والتطرف.
منظمات المجتمع المدني
أوضحت شمسه القبيسي، مساعدة باحث في «تريندز»، أن مواجهة الروايات الإرهابية على «الإنترنت» تتطلب فهماً أكثر دقة لمسارات الأفراد إلى التطرف، من التي يمكن أن توفرها هذه الأدوات، إلى جانب تعظيم دور منظمات المجتمع المدني، وتعزيز علاقات أجهزة الأمن بالمجتمعات المحلية، كما ينبغي على وكالات إنفاذ القانون ومكافحة الإرهاب تطوير معارفها الداخلية وقدراتها التقنية لمكافحة الإرهاب ومجابهة التطرف وتياراته.
وذكرت أن استخدام تقنيات الذكاء الاصطناعي في مكافحة الإرهاب عبر «الإنترنت» يجب أن تحترم حقوق الإنسان، والأهم من ذلك، يجب أن ندرك أنّ الذكاء الاصطناعي يوفر نتائج احتمالية وليس تنبؤات معصومة، ولا يمكنه القضاء على الإرهاب والتطرف العنيف عبر «الإنترنت» فقط، بل يجب أن تكون الاستثمارات في الذكاء الاصطناعي محاطة بجهود تطويق الإرهاب والتطرف العنيف من جذوره.
مواجهة التطرف والإرهاب
في سياق متصل، وختاماً لجولته البحثية الفرنسية، عقد «تريندز» جلسة نقاشية مع السيد فريدريك غارنييه، مستشار الهجرة والطوائف الدينية في وزارة الداخلية الفرنسية، والمسؤول عن قضايا الاندماج والتطرف في الوزارة، طرح خلالها فريق المركز رؤيته حول خطر جماعة الإخوان المسلمين وجهوده في مواجهة أفكارها وأيديولوجيتها، كما أهدى المسؤول الفرنسي مجموعة من إصدارات موسوعة «تريندز حول جماعة الإخوان المسلمين» المترجمة إلى اللغة الفرنسية، وكذلك مؤشر نفوذ الإخوان على المستوى الدولي.
وأعرب فريدريك غارنييه عن رغبة وزارة الداخلية الفرنسية في الاستفادة من تجربة «تريندز» في تفكيك الأفكار الإسلاموية، وكشف خطورتها، والاستفادة من إصدارات المركز في هذا المجال، كما اقترح على «تريندز» التعاون والتشارك البحثي مع الوحدة البحثية لدراسة التطرف والإرهاب التابعة لوزارة الداخلية الفرنسية.
ختام «باريس للكتاب»
وفي سياق متصل، اختتم «تريندز» مشاركته الثانية في معرض باريس الدولي للكتاب 2025، حيث استقطب جناح المركز في قاعة الشرف الدولية، مسؤولين ودبلوماسيين وخبراء وأكاديميين، ومن أبرزهم الدكتور محمد حمد الكويتي، رئيس مجلس الأمن السيبراني لحكومة دولة الإمارات، وفهد سعيد الرقباني، سفير دولة الإمارات لدى فرنسا، والدكتور رياض ياسين عبدالله، سفير الجمهورية اليمنية لدى فرنسا، والسيناتور نتالي جوليه، عضوة مجلس الشيوخ الفرنسي عن مقاطعة أورن، والدكتور جاك لانج، رئيس معهد العالم العربي في باريس، وزافيير دوبلوي، نائب مدير معرض باريس الدولي للكتاب.
واطلع زوار الجناح على أحدث وأبرز إصدارات «تريندز» البحثية الموقعة حديثاً، خاصة البحوث والدراسات المترجمة إلى «الفرنسية»، وثمنوا جهود المركز الداعمة للثقافة والمعرفة، ورؤيته المعززة لمد جسور التواصل بين الشعوب والمجتمعات، كما أشادوا بجهود المركز البحثية في تحليل واستشراف مستقبل الجماعات المتطرفة والتنظيمات الإرهابية.
المصدر: صحيفة الاتحاد
كلمات دلالية: مركز تريندز للبحوث والاستشارات تريندز مركز تريندز محاربة الإرهاب مكافحة الإرهاب الذكاء الاصطناعي مجلس الشيوخ الفرنسي محمد العلي معرض باريس الدولي للكتاب تقنیات الذکاء الاصطناعی جماعة الإخوان المسلمین التکنولوجیا الناشئة استخدام التکنولوجیا أن الذکاء الاصطناعی الداخلیة الفرنسیة الجماعات المتطرفة التطرف والإرهاب مکافحة الإرهاب مکافحة التطرف دولة الإمارات لدى فرنسا إلى جانب من جانب یجب أن من قبل
إقرأ أيضاً:
هل يخفي الذكاء الاصطناعي عنصرية خلف خوارزمياته الذكية؟
مؤيد الزعبي
بما أننا مقبلون على مرحلة جديدة من استخدامات الذكاء الاصطناعي وجعله قادرًا على اتخاذ القرارات بدلًا عنَّا يبرز سؤال مهم؛ هل سيصبح الذكاء الاصطناعي بوابتنا نحو مجتمع أكثر عدلًا وإنصافًا؟ أم أنه سيعيد إنتاج تحيزاتنا البشرية في قالب رقمي أنيق؟ بل الأخطر من ذلك: هل سيغدو الذكاء الاصطناعي أداة عصرية تمارس من خلالها العنصرية بشكل غير مُعلن؟
قد تحب- عزيزي القارئ- تصديق أن هذه الأنظمة "ذكية" بما يكفي لتكون حيادية، لكن الحقيقة التي تكشفها الدراسات أكثر تعقيدًا؛ فالذكاء الاصطناعي في جوهره يتغذى على بياناتنا وتاريخنا، وعلى ما فينا من تحامل وتمييز وعنصرية، وبالتالي فإن السؤال الحقيقي لا يتعلق فقط بقدرة هذه الأنظمة على اتخاذ قرارات عادلة، بل بمدى قدرتنا نحن على برمجتها لتتجاوز عيوبنا وتاريخنا العنصري، ولهذا في هذا المقال نقترب من هذه المنطقة الرمادية، حيث تتقاطع الخوارزميات مع العدالة، وحيث قد تكون التقنية المنقذ أو المجرم المتخفي.
لنقرّب الفكرة بمثال واقعي: تخيّل شركة تستخدم الذكاء الاصطناعي لفرز السير الذاتية واختيار المتقدمين للوظائف. إذا كانت خوارزميات هذا النظام مبنية على بيانات تحمل انحيازًا ضد جنس أو لون أو جنسية معينة، فقد يستبعد المرشحين تلقائيًا بناءً على تلك التحيزات. وهذا ليس ضربًا من الخيال؛ فقد وجدت دراسة حديثة أجرتها جامعة واشنطن (أكتوبر 2024) أن نماذج لغوية كبيرة أظهرت تفضيلًا واضحًا لأسماء تدلّ على أصحاب البشرة البيضاء بنسبة 85%، مقابل 11% فقط لأسماء مرتبطة بالنساء، و0% لأسماء تعود لأشخاص من ذوي البشرة السوداء، تُظهر هذه الأرقام المقلقة كيف أن خوارزميات الذكاء الاصطناعي، والتي تستخدمها نحو 99% من شركات "فورتشن 500"، يمكن أن تؤثر سلبًا على فرص ملايين الأشخاص الباحثين عن عمل، لا لسبب سوى أنهم وُلدوا بهوية مختلفة، أي أن تحيّز هذه الأنظمة يمكن أن يمس ملايين الباحثين عن العمل.
الأمر يزداد خطورة عند الحديث عن أنظمة التعرف على الوجوه، والتي تُستخدم حاليًا في تعقب المجرمين ومراقبة الأفراد. دراسات عديدة أثبتت أن هذه الأنظمة تخطئ بنسبة تصل إلى 34% عند التعامل مع النساء ذوات البشرة الداكنة، كما تُسجَّل أخطاء في التعرف على الوجوه الآسيوية، ما قد يؤدي إلى اعتقالات خاطئة أو مراقبة غير مبررة لأشخاص أبرياء، فقط لأن الخوارزمية لم تتعلم بشكل عادل، وتخيل الآن كيف سيكون الأمر عندما يدخل الذكاء الاصطناعي- بكل تحيزاته- إلى قاعات المحاكم، أو إلى أنظمة القضاء الإلكترونية، ليصدر أحكامًا أو يوصي بعقوبات مشددة، وحينها بدلًا من أن نصل لقضاء عادل سنصل لعدالة مغلفة بواجهة من الحياد الزائف.
ولننتقل إلى السيناريو الأكثر رعبًا: الذكاء الاصطناعي في المجال العسكري. ما الذي قد يحدث إذا تم برمجة أنظمة قتالية لتحديد "العدو" بناءً على لون بشرة أو جنسية؟ من يتحمل المسؤولية حين ترتكب هذه الأنظمة مجازر على أساس تحيز مبرمج مسبقًا؟ تصبح هذه الأنظمة أداة للقتل بعنصرية عقل إلكتروني، ومن هنا ستتفاقم العنصرية، وستصبح هذه الأنظمة بلا شك أداة لقتل كل ما تراه عدوًا لها ليأتي اليوم الذي تجدنا فيه نحن البشر ألذ أعدائها.
في قطاع الرعاية الصحية أيضًا يمكن للذكاء الاصطناعي أن يكون عنصريًا خصوصًا لو تم برمجتها لتتحكم بمستحقي الدعم الصحي أو حتى استخدامها في أنظمة حجز مواعيد العمليات، فلو وجد أي عنصرية بهذه الأنظمة؛ فبالطبع ستعطي الأولوية لأصحاب بشرة معينة أو جنسية معينة مما سيحرم الكثيرين من الوصول للعلاج في الوقت المناسب.
حتى نكون منصفين هنا نحتاج إلى تمييز دقيق بين نوعين من عنصرية الذكاء الاصطناعي: العنصرية المقصودة: الناتجة عن برمجة متعمدة تخدم مصالح أو توجهات محددة، والعنصرية غير المقصودة: الناتجة عن تغذية الأنظمة ببيانات غير عادلة أو تمثل واقعًا عنصريًا، فتُصبح الخوارزميات انعكاسًا له.
وأيضًا هناك مشكلة مهمة يجب معالجتها فلو عدنا لموضوع الرعاية الصحية؛ فلو قمنا بإدخال بيانات المرضى على هذه الأنظمة وكان حجم البيانات لفئة معينة أكثر من فئة أخرى فربما يعالج الذكاء الاصطناعي هذا الأمر على أن فئة معينة لا تحتاج للعلاج أو تحتاج لرعاية صحية أقل من غيرها وبالتالي يستثنيها من علاجات معينة أو مطاعيم معينة مستقبلًا، ولهذا يجب أن نعمل على تنقيح بيناتنا من العنصرية قدر الإمكان لتجنب تفاقم الأزمة مستقبلا.
يجب ألا نعتقد أبدًا بأن الذكاء الاصطناعي سيكون منصفًا لمجرد أنه آلة لا تفاضل شيء على شيء، فهذا سيمكن الصورة النمطية الموجودة حاليًا في مجتمعاتنا، فالذكاء الاصطناعي تقنية مازالت عمياء وليست واعية بما يكفي لتميز أية التمييز وتحذفه من برمجياتها، إنما تأخذ الأنماط الموجودة وتبني عليها، وسنحتاج وقت أطول لمعالجة هذه الفجوة كلما مضى الوقت.
إذا سألتني عزيزي القارئ ما هي الحلول الممكنة نحو ذكاء اصطناعي عادل وشامل، فالحلول كثيرة أهمها أن نوجد أدوات ذكاء اصطناعي قادرة على إيجاد العنصرية وتبدأ بمعالجتها واستثنائها في خوارزمياتها، وهذه مسؤولية الشركات الكبرى التي تبني نماذج الذكاء الاصطناعي، وثانيًا يجب أن نطور أنظمة ذكاء اصطناعي مبنية على العنصرية فهذه الأنظمة ستطور من نفسها وستكون عدوة للبشرية في قادم الأيام، أيضًا يجب أن يكون هناك تنويع في البيانات فكلما انعكس التنوع في البيانات والتصميم، كلما انخفضت احتمالية انتشار النتائج العنصرية وحققنا الإنصاف المطلوب.
في النهاية يجب القول إن الذكاء الاصطناعي ليس عدوًا بالضرورة، لكنه قد يكون كذلك إذا تركناه يتغذّى على أسوأ ما فينا وأقصد هنا العنصرية.
رابط مختصر