كيف تستفيد جماعات مثل داعش والقاعدة من أدوات الذكاء الاصطناعي لتعزيز قدراتها؟
تاريخ النشر: 9th, July 2025 GMT
في الوقت الذي تتسابق فيه الحكومات والقطاعات الصناعية للاستفادة من الطفرات التقنية في مجال الذكاء الاصطناعي، تستغلّ الجماعات المصنفة "إرهابية" هذه الأدوات الحديثة لتعزيز دعايتها، وتمويل عملياتها، والتخطيط لهجماتها، وسط قلق متصاعد لدى أجهزة الأمن والاستخبارات من تنامي قدرات هذه التنظيمات. اعلان
تنظيم الدولة الإسلامية، ومن قبله تنظيم القاعدة، كانا من أوائل اللاعبين غير الحكوميين الذين استثمروا الأدوات الرقمية، من تطبيقات التواصل الاجتماعي إلى العملات الرقمية، لتوسيع شبكاتهم السرية.
وقد نقلت مصادر مطلعة على جهود الحكومة الأمريكية في "مكافحة الإرهاب" لصحيفة "الغارديان" أن العديد من الوكالات الأمنية تبدي قلقًا عميقًا حيال الكفاءة المتزايدة للجماعات بفضل الذكاء الاصطناعي.
وفي هذا السياق، يقول آدم هادلي، مؤسس ومدير منظمة "التكنولوجيا ضد الإرهاب" المدعومة من لجنة مكافحة الإرهاب التابعة للأمم المتحدة: "بحثنا توقع تمامًا ما نشهده الآن. الإرهابيون لا يستخدمون الذكاء الاصطناعي لإحداث ثورة، بل لتسريع ما هو قائم أصلاً".
بدأت تنظيمات كـ"داعش" بالاعتماد على أدوات مثل ChatGPT لنشر مضامين متعددة الوسائط تروّج لفكرها، بما يشمل تحويل بيانات مكتوبة إلى مقاطع صوتية، وتصميم صور دعائية عالية التأثير.
وفي هذا السياق، يؤكد مصطفى عياد، المدير الإقليمي لمعهد الحوار الاستراتيجي في أفريقيا والشرق الأوسط وآسيا، أن "الذكاء الاصطناعي بات جزءًا أساسيًا من منظومة النشر والدعاية لدى هذه الجماعات".
ولا تخفي هذه التنظيمات إعجابها العلني بهذه التكنولوجيا. ففي إحدى المجلات الدعائية التابعة لـ"داعش"، نُشر مقال يصف الذكاء الاصطناعي بأنه "قوة تشكل الحرب"، داعيًا أعضاء التنظيم إلى استيعاب "الفروق الدقيقة" فيه واستخدامه كـ"مستشار رقمي" و"مساعد بحثي". وتواصل الجماعة نشر "دليل أدوات الذكاء الاصطناعي ومخاطره" عبر قنوات مشفّرة لمناصريها.
تكتيكات رقمية للتخفيداخل غرف الدردشة التابعة لتنظيم داعش، يناقش المستخدمون علنًا سبل استخدام الذكاء الاصطناعي، من بينها السؤال عن مدى أمان استخدام ChatGPT في البحث عن كيفية تصنيع المتفجرات، في ظل الشكوك حول الرقابة الأمنية على هذه التطبيقات.
وفي محاولة للتحايل على أنظمة الرقابة، ابتكر بعض المستخدمين طرقًا ملتوية، مثل إسقاط تعليمات بناء نماذج أولية لمركبات يتم التحكم بها عن بُعد عبر واجهات الذكاء الاصطناعي، في تكتيك يعيد إلى الأذهان هجمات الدهس الشهيرة التي نفذها التنظيم في السنوات الماضية.
Relatedصحوة داعش ما نرى؟ تحذيرات أمنية من عودة التنظيم إلى سوريا والعراققادمة من مخيم الهول.. الداخلية تكشف عن خلية "داعش" المتورطة في تفجير كنيسة مار إلياس بدمشقداعش في التشيك؟ اعتقال 5 مراهقين يشتبه أن التنظيم جندهم عبر الانترنت من سورياوفي آذار/ مارس الماضي، بث حساب مرتبط بالتنظيم مقطع فيديو يوضح تصنيع قنبلة بناءً على إرشادات قدّمها نظام الذكاء الاصطناعي، باستخدام أدوات منزلية بسيطة.
ومن هنا، تتعزز المخاوف من أن الذكاء الاصطناعي لم يعد فقط أداة مدنية، بل بات ساحة صراع خفيّة بين الأجهزة الأمنية وتلك التنظيمات، التي تجد في هذه التقنية وسيلة فعالة لتعزيز نفوذها وتفادي الرقابة الأمنية.
انتقل إلى اختصارات الوصولشارك هذا المقالمحادثةالمصدر: euronews
كلمات دلالية: دونالد ترامب إسرائيل غزة روسيا بنيامين نتنياهو حركة حماس دونالد ترامب إسرائيل غزة روسيا بنيامين نتنياهو حركة حماس داعش الإرهاب تكنولوجيا الذكاء الاصطناعي وسائل التواصل الاجتماعي تطبيق دونالد ترامب إسرائيل غزة روسيا بنيامين نتنياهو حركة حماس جمارك فلاديمير بوتين الصراع الإسرائيلي الفلسطيني سوريا إسبانيا سياحة الذکاء الاصطناعی
إقرأ أيضاً:
ما بعد روبوتات الدردشة: نباتيو الذكاء الاصطناعي يرفضون قبول واقع افتراضي
فئة من الشباب الواعين بيئيا، الملقبين بـ"AI vegans"، تقود حملة ضد "ChatGPT" وأشكال أخرى من **الذكاء الاصطناعي التوليدي**.
كانت مسابقة مرتبطة بلعبة الفيديو "Warframe" القشة التي قصمت ظهر البعير بالنسبة لبيلا.
أُعطي كل أفراد فريقها في اللعب ثلاثة أيام فقط لتسليم أعمالهم الفنية. ورغم توترها بسبب ضيق المهلة، لم يثن ذلك عزيمتها... إلى أن قبلت المسابقة عملا مُنتجا بواسطة الذكاء الاصطناعي (AI).
"لو لم يُقبل الذكاء الاصطناعي في المسابقة، ربما حاولتُ المنافسة، لكن هذه المرة بدا الأمر مهينا بالنسبة لي: أن أنافس شخصا لم يبذل قطرة جهد واحدة في هذه الصورة"، قالت الشابة من جمهورية التشيك التي تبلغ من العمر 21 عاما لبرنامج Euronews Next.
"أحد أسباب توقفي عن استخدام الذكاء الاصطناعي التوليدي هو أنه أمر غير أخلاقي. ولو واصلتُ استخدامه كفنانة، لكان ذلك نوعا من الخيانة. لقد أمضيتُ سنوات وأنا أتعلم وأطور مهاراتي بنفسي، وها أنا أستخدم شيئا يسرق نتائج عمل آخرين مثلي".
بيلا واحدة من عدد متزايد من "النباتيين عن الذكاء الاصطناعي"، وهو اسم جديد لمن يختارون الامتناع تماما عن كل أدوات الذكاء الاصطناعي التوليدي، وهي أنظمة تُدرَّب على مجموعات هائلة من البيانات لإنتاج نصوص وصور وموسيقى وأكثر.
[الذكاء الاصطناعي التوليدي] يسرق بلا توقف ومن دون موافقة من كل شيء على الإطلاق. Marcإنها حركة تنمو باطراد منذ إطلاق "ChatGPT" من "OpenAI" في 2022، وقد جمع مجتمع مناهضي الذكاء الاصطناعي على "Reddit" أكثر من 71.000 عضو.
ومثل النباتية، فإن المبررات في الغالب أخلاقية وبيئية.
حتى محادثة قصيرة مع "ChatGPT" قد تستهلك ما يعادل زجاجة ماء، وفق دراسة أُجريت في 2023. كما أن سَحْب التقنية للأعمال الإبداعية من الشبكة دفع فنانين وكتابا ومخرجين وموسيقيين مشهورين إلى الاتحاد احتجاجا.
"[الذكاء الاصطناعي التوليدي] يسرق بشكل دائم ومن دون موافقة من كل شيء، وينتهك الخصوصية، ويجني المال من ذلك"، قال مارك، وهو ممتنع عن استخدام الذكاء الاصطناعي يبلغ من العمر 23 عاما ويقيم في إسبانيا، لـ Euronews Next.
"إنها أداة رأسمالية للإبقاء على استغلال العمال أو حتى تصعيده إلى مستوى أعلى".
وإلى جانب هذه المخاوف، يلوح قلق أعمق بشأن الكيفية التي قد يضر بها الذكاء الاصطناعي صحتنا النفسية وتطورنا المعرفي، عبر خلق اعتماد على حلول سريعة تسلبنا التفكير النقدي.
وتدعم ذلك دراسة حديثة صغيرة النطاق أجراها "معهد ماساتشوستس للتكنولوجيا" (MIT)، إذ أفادت أن المشاركين الذين استعانوا بـ "ChatGPT" لكتابة مقالات سجّلوا تفاعلا دماغيا أقل من أولئك الذين لم يستخدموا الأداة.
أشعر أن العصر الرقمي جلب بالفعل كثيرا من الغباء لمجرد أن الناس يسيئون استخدام الإنترنت والهواتف، بدلا من استخدامها لتعلم أشياء جديدة. Lucyووجدت الدراسة أن مستخدمي "ChatGPT" واجهوا أيضا صعوبة في الاقتباس مما أنتجوه للتو، وأظهروا أداءً أدنى "على المستويات العصبية واللغوية والسلوكية".
وقد تكون لذلك تبعات أكبر على التعلم والثقة بالنفس وكيفية توظيف البشر للذكاء الاصطناعي في السياقات الحساسة، بحسب ناتاليا كوسمينا، المشاركة في إعداد الدراسة وباحثة في مجموعة "Fluid Interfaces" التابعة لمختبر "MIT Media Lab".
"إذا كان الشخص لا يتذكر حقا ما كتبه للتو، فهو لا يشعر بالملكية، وفي النهاية هذا يعني أنه لا يهتم به فعلا. فماذا لو لم يكن هذا مجرد اختبار مختبري؟ ماذا لو كانت حالة حقيقية، كما تعلم، مسألة حياة أو موت؟ هناك وظائف تتطلب ذلك".
بالنسبة لوسي، وهي "نباتية عن الذكاء الاصطناعي" تبلغ من العمر 22 عاما من إسبانيا، تتمحور مخاوفها حول نزعة بعض الدردشات الآلية إلى التملق، ما قد يفضي إلى إضفاء الشرعية على أفكار وهمية وأحيانا خطيرة.
وقالت: "أشعر أن العصر الرقمي جلب بالفعل كثيرا من الغباء لمجرد أن الناس يسيئون استخدام الإنترنت والهواتف بدلا من استخدامها لتعلم الأشياء. لكن أن يكون الناس حمقى بينما تقول لهم الدردشات الآلية كم هم على حق وعباقرة؟ هذا مقلق".
صعوبات الامتناع عن استخدام الذكاء الاصطناعييتطور الذكاء الاصطناعي التوليدي بوتيرة سريعة، متغلغلا في الوظائف والتعليم وتطبيقات التواصل الاجتماعي وحتى علاقاتنا. وقد جعل ذلك تجنبه أكثر صعوبة.
"تحتاج إلى عقلية قوية، وقد تمكنت من ذلك"، يقول مارك الذي كان يعمل سابقا في مجال الأمن السيبراني للذكاء الاصطناعي.
وأضاف: "يكون من المعقد بشكل خاص أن تبقى خارجه في الجامعة مثلا، عندما يستخدمه معظم الطلاب وحتى المدرسين بانتظام لكل شيء"، مشيرا إلى أنه خلق أيضا فجوة مع عائلته التي "أدمنَتْ التبسيط" الذي يوفره الذكاء الاصطناعي.
كما تُشجَّع لوسي بقوة على استخدام الذكاء الاصطناعي في تدريبها لدى شركة تصميم جرافيكي، على الرغم من نتائجه المشكوك فيها في كثير من الأحيان.
وقالت: "طلب منا أحد العملاء مؤخرا تحريك مساعدهم القائم على الذكاء الاصطناعي (رسم قبيح جدا لامرأة بكل البهرجة المصقولة القبيحة لأسلوب الذكاء الاصطناعي). لذا نعاني مع ذلك، لأن الذكاء الاصطناعي للفيديو يمنحها أيادي ضخمة وما إلى ذلك. إنه يبعث على النفور، ظاهرة الوادي الغريب".
لكن حتى عندما تتطلب حياتنا المهنية استخدام هذه التقنية، ترى كوسمينا أنه ينبغي أن نحافظ على حق الاختيار متى وكيف تُستخدم، مع ممارسة هذا الحق بتروٍ.
وقالت: "هل أتفاعل معها بسبب عملي وإدارة الدراسات؟ نعم، بالتأكيد. هل نتحقق عندما تظهر ميزة جديدة مثلا، أو عندما يظهر ادعاء جديد؟ نعم. لكن استخدامها في أي حالات شخصية أخرى أو مهنية؟ شخصيا، لا أرى حاجة إلى ذلك".
وأضافت: "بعض استخدامات [الذكاء الاصطناعي التوليدي] بالطبع مثير جدا للاهتمام وأكثر إثارة من غيره. لكنني لا أحتاج إلى أن أحرق سبع أشجار وسبعة غالونات من الماء لإعادة كتابة بريد إلكتروني".
هل يمكن أن يكون الذكاء الاصطناعي أخلاقيا؟بالنسبة لغالبية "النباتيين عن الذكاء الاصطناعي"، القناعة الأساسية هي أن الذكاء الاصطناعي غير أخلاقي في جوهره.
وبينما يرى مارك أنه يجب "حظر استخدامه والمعاقبة عليه قانونا"، يتمسك آخرون بالدعوة إلى تشريعات أكثر صرامة تُعلي الممارسات الأخلاقية على الربح.
وقالت لوسي: "يمكن تماما أن يكون الذكاء الاصطناعي أخلاقيا إذا كانت مواد التدريب تُستمد بطريقة أخلاقية وإذا لم يستخدموا عمالا كينيين مُستغَلِّين من أجل ذلك".
وتابعت: "تكلفة الطاقة ستكون على الأرجح جنونية على أي حال، لكنني لن أنكر أن لدي هوايات تستهلك الطاقة أو تلوّث كثيرا على أي حال، مثل الألعاب والتسوق لاقتناء أشياء من الخارج وما شابه".
وفي وقت تُطبَّق فيه قيود عمرية عبر منصات التواصل الاجتماعي في بعض الدول، مع إقرار أستراليا حظرا لمن هم دون 16 عاما، ترى كوسمينا أنه ينبغي التعامل مع الذكاء الاصطناعي التوليدي بالطريقة نفسها.
"أعتقد فعلا أنه يجب أن يُحظر تماما على القصّر. وبالقصّر أعني كل من يدرسون في المدرسة حتى سن 18"، قالت مضيفة: "وفي بيئات التعلم، لا ينبغي أن يُفرَض عليك".
وبينما نواصل التكيف مع تغلغل الذكاء الاصطناعي في حياتنا، ثمة تذكير مريح على الأقل ممن اختاروا الامتناع: روعة الواقع لا يُضاهيها شيء.
قالت لوسي: "الذكاء الاصطناعي مكرر وسطحي جدا. وما إن يزول عنصر الجِدّة، تلاحظ كم أن الترفيه الذي يصنعه البشر أفضل مقارنة بذلك".
وافق "النباتيون عن الذكاء الاصطناعي" المذكورون في هذا المقال على التحدث إلى Euronews Next عن تجاربهم في الامتناع عن الذكاء الاصطناعي، لكنهم لم يرغبوا في نشر أسمائهم الحقيقية حفاظا على الخصوصية.
انتقل إلى اختصارات الوصول شارك محادثة