نظّم مركز تريندز للبحوث والاستشارات، عبر مكتبه الافتراضي في ألمانيا، ندوة «دور الذكاء الاصطناعي في الأمن.. الموازنة بين حدود التكنولوجيا والمسؤولية البشرية»، وذلك على هامش مشاركته في النسخة الـ77 من معرض فرانكفورت الدولي للكتاب 2025، وبمشاركة نخبة من الخبراء والمتخصصين في مجالات الأمن والدفاع والاستخبارات ومكافحة الإرهاب.

وأكد المشاركون في الندوة، التي أدارها هزاع سيف الحمادي، الباحث في «تريندز»، أن العالم يواجه تحدياً مزدوجاً بفعل تطور تقنيات الذكاء الاصطناعي واندماجها في البنى التحتية الأمنية والأنظمة الرقابية ومكافحة الإرهاب وتحليل المعلومات الاستخباراتية والدفاع العسكري، وهو ما يزيد من مخاطر تأثير الذكاء الاصطناعي على المشهد الأمني العالمي.

وقال الدكتور محمد عبدالله العلي، الرئيس التنفيذي لمركز تريندز للبحوث والاستشارات، إن مجال الأمن الوطني والدولي يشهد تحولاً سريعاً بفضل الذكاء الاصطناعي، حيث يُستخدم في مكافحة الإرهاب وتأمين الأمن السيبراني والمراقبة والتنبؤ بالجريمة، وضبط الحدود وتطوير الاستراتيجيات العسكرية، كما تتيح تقنياته زيادة الكفاءة والكشف المبكر عن التهديدات، مشيراً إلى العديد من المخاطر في هذا المجال ومنها «الذكاء الاصطناعي العكسي»، حيث يمكن استغلال الأنظمة الذكية نفسها أو التلاعب بها لخداعها، ما قد يؤثر سلباً على أنظمة الطوارئ والأمن، ويعرّض حياة البشر والمجتمعات للخطر، كما يمكن استخدام التكنولوجيا كسلاح غير مرئي يهدد الشفافية والعدالة في إدارة الطوارئ.

ولفت إلى أن الذكاء الاصطناعي، يطرح رغم قوة وفاعلية أدواته، مخاطر مثل التحيّز الخوارزمي، وسوء الاستخدام في المراقبة، والتعدي على الخصوصية، والاعتماد المفرط على الأنظمة الآلية، وأن توظيفه من دون إشراف مناسب، قد يؤدي إلى تصنيفات خاطئة، وانتهاكات للقانون الدولي.

بدوره، أكد يان سان بيير، الرئيس التنفيذي لشركة موسيكون، ومستشار مكافحة الإرهاب في برلين، أن الذكاء الاصطناعي أصبح عنصراً محورياً في مكافحة الإرهاب وفي تطوير أساليبه، فبينما يمنح قدرات تحليلية واستخباراتية متقدمة، يحمل أيضاً مخاطر إساءة الاستخدام، فطبيعته المزدوجة تجعله أداة يمكنها تعزيز الأمن أو تمكين المجرمين، ما يستدعي إشرافاً بشرياً مسؤولاً ومتواصلاً.

وأوضح أن التنظيمات المتطرفة تستغل الذكاء الاصطناعي في ثلاثة مجالات رئيسية هي الدعاية والتجنيد، الهجمات السيبرانية، والتخطيط لهجمات ميدانية، ما يمنحها قدرة على الانتشار السريع والتأثير في الرأي العام، وتنفيذ عمليات رقمية وواقعية معقدة تفوق قدرات المراقبة التقليدية.

أخبار ذات صلة "ChatGPT" يفقد زخمه بعد موجة صعود عالمية مدير عام الأكاديمية الحكومية لـ«الاتحاد»: تمكين القادة.. أكبر استثمار لحكومات المستقبل

وبيّن بيير أن أدوات الذكاء الاصطناعي تساعد الإرهابيين على تنفيذ هجمات رقمية مثل برامج الفدية، والتصيد الإلكتروني، وهجمات حجب الخدمة، كما تُستخدم في تحليل البنى التحتية وجمع بيانات لتخطيط هجمات ميدانية، مضيفاً أنه في المقابل توظف الجهات الأمنية الذكاء الاصطناعي في جمع المعلومات المفتوحة ومكافحة التضليل، كما يُسهم في تحليل البيانات وتعقُّب الأنشطة المالية، ورصد المحتوى المتطرف.

من جانبه، قال مصطفى العمار، عضو الاتحاد الديمقراطي المسيحي الألماني، إن الذكاء الاصطناعي أداة مساندة للأمن والقضاء، تُسهم في تسريع الإجراءات وتحليل البيانات بدقة وكفاءة، لكنه يحمل في الوقت ذاته مخاطر حقيقية، أبرزها التزييف العميق والتضليل الإعلامي، اللذان قد يستخدمان لزعزعة الاستقرار والتأثير في الرأي العام.

وشدد على ضرورة بناء أنظمة أمنية رقمية حديثة تتيح تبادلاً سريعاً وآمناً للمعلومات بين الجهات الأمنية على المستويين الوطني والأوروبي، مع تعزيز الدفاع السيبراني بأنظمة ذكية قادرة على التنبؤ بالتهديدات، محذراً من أن حماية البيانات لا يجب أن تتحول إلى حماية للمجرمين.

وقال الدكتور جاسم محمد، مدير المركز الأوروبي لدراسات مكافحة الإرهاب والاستخبارات «ECCI»، إن الذكاء الاصطناعي أصبح أداة محورية في العمل الاستخباري، حيث يُستخدم لتحليل كميات ضخمة من البيانات واكتشاف التهديدات بسرعة، لكن القرار النهائي يجب أن يبقى بيد الإنسان، إذ أن الذكاء الاصطناعي لا يفهم السياق الأخلاقي أو المعنوي، ما يجعل الاعتماد الكلي عليه خطراً جسيماً.

وبيّن أن من أبرز مخاطر الذكاء الاصطناعي، التحيز الناتج عن البيانات غير المتوازنة، والثقة المفرطة بنتائج الأنظمة الآلية، إضافة إلى إمكانية إساءة استخدامه في التضليل والتزييف العميق، كما تثير استخداماته تساؤلات قانونية وأخلاقية تتطلب رقابة صارمة.

وذكر أن العامل البشري يظل الأساس، وأن الإنسان يجب يكون حاضراً يراجع ويصادق على القرارات، مع توفير التدريب المستمر في التحليل والأخلاقيات والتفكير النقدي والشفافية والمساءلة، موصياً بوضع حدود واضحة لاستخدام الذكاء الاصطناعي، وإنشاء هيئات رقابية، وتنظيم الوصول للتقنيات الحساسة، إضافة إلى تعزيز التعاون الدولي لتطوير أُطر قانونية تحمي القيم الديمقراطية.

المصدر: وام

المصدر: صحيفة الاتحاد

كلمات دلالية: تريندز الذكاء الاصطناعي الذکاء الاصطناعی فی مکافحة الإرهاب

إقرأ أيضاً:

هل يهدد الذكاء الاصطناعي التعليم والجامعات ؟

وقع نظري مؤخرًا على مقال نشره كاتب أمريكي يُدعى «رونالد بروسر»، وهو أستاذ إدارة الأعمال بجامعة «سان فرانسيسكو». 

نُشر المقال في مجلة «Current Affairs»، وهي مجلة سياسية ثقافية تصدر من الولايات المتحدة الأمريكية، وذلك في 1 ديسمبر 2025. 

تحدّث الكاتبُ في هذا المقال عن أزمة التعليم في ظل وجود الذكاء الاصطناعي، ويرى أن الجامعات الأمريكية عقدت الكثير من الشراكات مع شركات الذكاء الاصطناعي مثل شركة OpenAI، وأن هذا التوجّه يمثّل تهديدًا للتعليم ومستقبله، ويسهم في تفريغه من مضمونه الرئيس؛ بحيث يتحوّل التعليم إلى ما يشبه مسرحية شكلية فارغة من التفكير وصناعة الفكر والمعرفة الحقيقية. 

يرى «بروسر» أن هناك تحوّلا يدفع الطلبة إلى استعمال الذكاء الاصطناعي بشكل مكثّف وغير منضبط في إنجاز الواجبات والأعمال المنوطة إليهم، وكذلك يدفع كثيرا من الأساتذة إلى الاعتماد المفرط عليه في إعداد المحاضرات وعمليات التقويم والتصحيح، وتدفع الجامعات ـ كما يذكر «بروسر» ـ ملايين الدولارات في إطار هذه الشراكات مع شركات الذكاء الاصطناعي مثل OpenAI؛ لتوفير النُّسخ التوليدية التعليمية وتسخيرها للطلبة والأكاديميين. 

بناء على ذلك، تذهب هذه الملايين إلى هذه النظم التوليدية الذكية وشركاتها التقنية، في حين استقطعت الأموال من موازنات الجامعات؛ فأدى إلى إغلاق برامج أكاديمية في تخصصات مثل الفلسفة والاقتصاد والفيزياء والعلوم السياسية، وكذلك إلى الاستغناء عن عدد من أعضاء هيئة التدريس. 

يكشف الكاتبُ في نهاية المطاف أن الجامعات بدأت تتحول من الاستثمار في التعليم ذاته إلى تسليم النظام التعليمي ومنهجيته وعملية التعلّم إلى منصات الذكاء الاصطناعي، وهو ما يقلّص الاعتماد على الكوادر البشرية وعلى المنهجيات النقدية والتفكيرية. 

كذلك يُظهر الكاتبُ الوجهَ المظلم للذكاء الاصطناعي والاستغلال الذي قامت به شركات الذكاء الاصطناعي بالتعاون مع بعض الجامعات ومؤسسات البحث العلمي، ويرتبط هذا الوجه المظلم بعملية فلترة المحتوى الذي يُضخّ في نماذج الذكاء الاصطناعي التوليدية؛ حيث تُكلَّف فئات من البشر ـ في الغالب من الدول الأفريقية الفقيرة ـ بمراجعة هذا المحتوى وتصنيفه وحذف غير الملائم منه، مقابل أجور زهيدة جدا، وذلك بغية صناعة واجهة «آمنة» لهذه النماذج، وتقتضي هذه العملية في الوقت نفسه استهلاك كميات هائلة من الطاقة والمياه لتشغيل مراكز البيانات التي تقوم عليها هذه الأنظمة. 

كما يكشف وجها آخر للاستغلال الرقمي، ضحاياه الطلبة في بعض الجامعات الأمريكية ـ خصوصا المنتمين إلى الطبقات العاملة ـ عبر استغلالهم لصالح مختبرات شركات وادي السيليكون؛ إذ تُبرَم صفقات بملايين الدولارات بين هذه الشركات وبعض الجامعات، دون استشارة الطلبة أو أساتذتهم، في حين لا يحصل الطلبة إلا على الفتات، ويُعامَلون كأنهم فئران تجارب ضمن منظومة رأسمالية غير عادلة. 

أتفقُ مع كثير من النقاط التي جاء بها «رونالد بروسر» في مقاله الذي استعرضنا بعض حيثياته، وأرى أننا نعيش فعلا أزمة حقيقية تُهدِّد التعليم والجامعات، ونحتاج لفهم هذه الأزمة إلى معادلة بسيطة معنية بهذه التحديات مفادها أننا الآن في مرحلة المقاومة، والتي يمكن اعتبارها مرحلة شديدة الأهمية، لأنها ستُفضي في النهاية إما إلى انتصار التقنية أو انتصار الإنسان. 

مع ذلك، لا أعتقد أن هذه المعركة تحتاج إلى كل هذا القدر من التهويل أو الشحن العاطفي، ولا أن نُسبغ عليها طابعا دراميًا مبالغًا فيه. 

كل ما نحتاجه هو أن نفهم طبيعة العلاقة بيننا وبين التقنية، وألا نسمح لهذه العلاقة أن تتحول إلى معركة سنخسرها بكل تأكيد، نظرا إلى عدة عوامل، من بينها أننا نفقد قدرتنا على التكيّف الواعي مع المنتجات التقنية، ولا نحسن توظيفها لصالحنا العلمي والتعليمي؛ فنحوّلها ـ عن قصد أو بدون قصد ـ إلى خصم ضار غير نافع. 

نعود بالزمن قليلا إلى الوراء ـ تحديدا تسعينيات القرن العشرين ـ 

لنتذكّر المواجهة التي حدثت بين المنظومة التعليمية ـ من جامعات وأساتذة وباحثين ومهتمّين بالمعرفة ـ وبين موجة التهديدات الجديدة التي تزّعمها الإنترنت ومحركاته البحثية، وكان أحد أبرز هذه التهديدات ظهور ما يمكن تسميته بثقافة البحث السريع؛ حيث ابتعد الطالب والباحث عن الطرق التقليدية في البحث مثل استعمال الكتب والقراءة المطوّلة والعميقة، ولجأ إلى الإنترنت والبحث عن المعلومات في غضون ساعات قليلة، والاكتفاء بتلخيص الدراسات والكتب. 

ولّد هذا التحوّل مشكلات أخرى، من بينها تفشّي ظاهرة الانتحال العلمي والسرقات الفكرية، ولكن، لم تستمر هذه المشكلة لفترة طويلة؛ فحُلّت تدريجيا بعد سنوات، وتحديدا مع ظهور أدوات قادرة على كشف حالات الانتحال والسرقة العلمية، وظهور أنظمة تأقلمية ومعايير وقوانين تعليمية وأكاديمية عملت على إعادة تموضع الإنترنت داخل المنظومة التعليمية، وهكذا خرج النظام التعليمي والجامعات من تلك المواجهة رابحًا في بعض أجزائه وخاسرًا في أجزاء أخرى. 

لا أتصور أن مشكلتنا الحالية مع الذكاء الاصطناعي تشبه تماما المشكلة السابقة التي أحدثها ظهور الإنترنت ومحركات البحث؛ فكانت التحديات السابقة -نسبيا- أسهل، وكان من الممكن التعامل معها واحتواؤها في غضون سنوات قصيرة. أما المشكلة الراهنة مع الذكاء الاصطناعي، فتكمن في سرعته التطورية الهائلة التي لا نستطيع حتى أن نتحقق من مداها أو نتنبّأ بوتيرة قدراتها الإبداعية؛ فنجد، مثلا ، أنه في غضون سنتين أو ثلاث فقط انتقل الذكاء الاصطناعي التوليدي مثل«ChatGPT» من مرحلته البدائية إلى مرحلته المتقدمة الحالية، تجاوز فيها في بعض الزوايا قدرات الإنسان العادي في المهارات اللغوية، وأصبح يشكّل تحديًا حقيقيًا كما أشرنا في مقالات سابقة. 

فيما يتعلّق بالتعليم والجامعات، وكما أشار الكاتب في المقال الذي استعرضناه؛ فنحن أمام مشكلة حقيقية تحتاج إلى فهم عميق وإعادة ترتيب لأولوياتنا التعليمية. 

نقترح أولا ألا نتجاوز الحد المسموح والمقبول في استعمال الذكاء الاصطناعي في التعليم؛ فيجب أن تكون هناك حالة توازن واعية في التعامل مع أنظمة الذكاء الاصطناعي التوليدية في الجامعات، وكذلك المدارس. 

وبصفتي أكاديميًا، أرى من الضروري أن نقنن استعمال الذكاء الاصطناعي داخل الجامعات عبر وضع معايير وقوانين واضحة، والسعي في الوقت ذاته إلى تطوير أدوات قادرة على كشف حالات الانتحال والسرقات العلمية المرتبطة باستعمال هذه التقنيات والنماذج الذكية، رغم صعوبة ذلك في المرحلة الحالية، ولكن من المرجّح أن يصبح الأمر أكثر يسرا في المستقبل القريب. 

رغم ذلك، فلا يعني أنه ينبغي أن نمنع استعمال الذكاء الاصطناعي منعًا تامًا؛ فجلّ ما نحتاجه أن نُشرف عليه ونوجّهه ضمن حدود معيّنة؛ لتكون في حدود تعين على صناعة الإبداع البشري؛ فيمكننا أن نوجّه الذكاءَ الاصطناعي في تنمية مهارات الحوار والتفكير والتحليل لدى الطلبة إذا استُعملَ بطريقة تربوية صحيحة. 

ولكن في المقابل يجب أن تُشدَّد القوانين والعقوبات المتصلة بحالات الانتحال والاعتماد الكلّي على النماذج التوليدية سواء في مخرجات العملية التعليمية أو في البحوث العلمية. 

كذلك من الضروري أن نُعيد التوازن إلى دور أعضاء هيئة التدريس في الجامعات؛ فمن غير المعقول أن نترك صناعة المحتوى التعليمي مرهونة بالكامل للذكاء الاصطناعي، في حين يتراجع دور الأكاديمي وإبداعه الذي يمارس التفكير والنقد والإضافة المعرفية من عنده. 

على صعيد آخر، أظهرت دراسات حديثة التأثير السلبي للاستعمال المفرط للذكاء الاصطناعي والاعتماد عليه على الدماغ البشري بشكل فسيولوجي مباشر؛ فيمكن أن يدخله في حالة من الضمور الوظيفي مع الزمن، خصوصا حال تخلّى الإنسان عن ممارسة التفكير لصالح الخوارزمية. 

 د. معمر بن علي التوبي أكاديمي وباحث عُماني 

مقالات مشابهة

  • هل يهدد الذكاء الاصطناعي التعليم والجامعات ؟
  • مكافحة الإرهاب والتهريب وحماية الممرات البحرية.. أولويات زيارة وفد التحالف إلى عدن
  • بقيادة ترمب.. تشكيل تحالف دولي لمواجهة الهيمنة الصينية في الذكاء الاصطناعي
  • ندوة بآداب عين شمس تناقش ظاهرة أطفال الشوارع وطرق المواجهة
  • ندوة بآداب عين شمس تناقش "ظاهرة أطفال الشوارع"
  • واشنطن: خدمة الأمن الدبلوماسي تتعاون مع الفيدراليين لتطوير تكنولوجيا الأنظمة المضادة للطائرات بدون طيار
  • ترتفع لـ15 كيلومترًا وتضبط المخالفات البيئية.. الأمن البيئي يستعرض مُسيرة مزودة بتقنيات الذكاء الاصطناعي
  • متخصص في الذكاء الاصطناعي: استخدام الأنظمة الذكية ضرورة لمواجهة ندرة المياه وفقد المحاصيل
  • تحذير من ضعف دقة الذكاء الاصطناعي لقياس النبض عند ارتفاعه
  • لجنة مكافحة الهجرة غير الشرعية تناقش المهام المكلفة بها