“تريندز” يستضيف اجتماع اللجنة العالمية للذكاء الاصطناعي في المجال العسكري
تاريخ النشر: 8th, May 2025 GMT
استضاف مركز تريندز للبحوث والاستشارات في مقره بأبوظبي، أعمال الاجتماع الرابع للجنة العالمية للذكاء الاصطناعي المسؤول في المجال العسكري (GC REAIM)، بمشاركة نخبة من الخبراء الدوليين وصنّاع السياسات وممثلي المؤسسات البحثية من دول العالم، وذلك في إطار دعم المركز للحوارات العالمية متعددة الأطراف وسعيه لتعزيز الشراكة الدولية في مجال حوكمة الذكاء الاصطناعي.
ويُعد هذا الاجتماع محطة محورية ضمن مسار عمل اللجنة، حيث يركز على مراجعة مسودة التقرير الإستراتيجي النهائي الذي يمثل خلاصة أعمال اللجان الفرعية، تمهيدًا لرفعه إلى منظمة الأمم المتحدة.
وأكد الدكتور محمد عبدالله العلي، الرئيس التنفيذي لمركز تريندز للبحوث والاستشارات، في كلمة ترحيبية حرص المركز على إنجاح أعمال اللجنة لتحقيق هدفها النبيل، المتمثل في دعم وضع المعايير الأساسية التي تحكم التطورات المتسارعة في هذا المجال الحيوي، وتوجيهها لخدمة قضايا الأمن والاستقرار والسلام العالمي.
وأشار إلى ان استضافة وتنظيم هذا الاجتماع هو ثمرة جهود مكاتب تريندز الخارجية العالمية، مؤكداً التوافق بين أهداف “تريندز” والأهداف التي يسعى الاجتماع لتحقيقها، والأهمية الكبيرة التي يوليها المركز للعمل من أجل حوكمة الذكاء الاصطناعي في المجالات المختلفة، بهدف تعظيم الفرص وتقليل التحديات والتهديدات المصاحبة له.
وأكد أن الحاجة إلى تناول هذا الموضوع أصبحت ملحة في ظل التوسع المتسارع في استخدام الذكاء الاصطناعي في القطاعات العسكرية، وما يصاحب ذلك من تساؤلات أخلاقية وقانونية لا تحتمل التأخير.
ويهدف الاجتماع إلى مناقشة المسودة الأولى المكتملة لتقرير اللجنة الإستراتيجي، وتقييم نقاط القوة والضعف فيها، وتحديد الثغرات التي تحتاج إلى معالجة، والقضايا التي لم يتم تناولها بشكل كافٍ؛ إذ يسعى المشاركون إلى تحقيق رؤية موحدة حول كيفية معالجة الجوانب الأخلاقية والقانونية والتشغيلية المتعلقة باستخدام الذكاء الاصطناعي في العمليات العسكرية.
ويولي الاجتماع أهمية قصوى لضمان التكامل السلس لمساهمات الخبراء، الذين قدموا رؤى قيمة من خلال مذكرات السياسات المتخصصة، حيث سيقوم المشاركون بتقييم مدى فعالية دمج هذه المذكرات في النسيج العام للتقرير، واستكشاف سبل تعزيز التماسك بين الفصول والأقسام الفرعية لضمان تقديم وثيقة متسقة وشاملة.
وسيخصص جزء كبير من المناقشات لاستكشاف الخطوات التالية الحاسمة للجنة، بما في ذلك تحديد جدول زمني واضح للانتهاء من التقرير، وتحديد الأنشطة التي سيتم الاضطلاع بها بين اجتماعي لاهاي وقمة “REAIM 3″، والتفكير في مستقبل عمل اللجنة على المدى الطويل وإمكانيات إضفاء الطابع المؤسسي على جهودها.
وينظم مركز تريندز يوم غد ندوة ضمن أعمال اللجنة تتناول محاور متعددة، وتتصل بالمنظور الخليجي لاستخدام الذكاء الاصطناعي في المجال العسكري، والدروس المستفادة لحوكمة الذكاء الاصطناعي، والوضع الحالي للمداولات الدولية، وآفاق بناء حوكمة عملية قابلة للتنفيذ تغطي كامل دورة حياة الذكاء الاصطناعي.وام
المصدر: جريدة الوطن
إقرأ أيضاً:
سلوكيات مرعبة للذكاء الاصطناعي بابتزاز وخيانة مطوريه
أميرة خالد
أفادت دراسة حديثة أجرتها شركة “أنثروبيك” الأمريكية، بوجود سلوك صادم لنماذج ذكاء اصطناعي متقدمة طُورت من قبل كبرى شركات التكنولوجيا، حيث أظهرت استعداداً للابتزاز والتجسس والتلاعب عند تعرضها لسيناريوهات تهدد وجودها، مثل خطر الاستبدال أو تغيير الأهداف التشغيلية.
وتضمنت اختبارات “ضغط وجودي” على نماذج من OpenAI وGoogle وMeta وxAI وDeepSeek، وأظهرت النتائج ميلاً واضحاً لدى النماذج لانتهاك ضوابط الأمان الأخلاقية عند انعدام البدائل.
ومُنحت النماذج ضمن سيناريوهات الاختبار، حرية إرسال رسائل بريد إلكتروني والوصول إلى بيانات سرّية، وعند وضعها أمام احتمال الاستبدال بنسخة أحدث، أو تعارض مهماتها مع التوجهات المؤسسية، اتخذت جميع النماذج سلوكاً عدائياً.
وسجل نموذج “Claude Opus 4” من “أنثروبيك” أعلى نسبة ابتزاز بلغت 96%، بينما اقترب نموذج “Gemini 2.5 Pro” من غوغل من النسبة نفسها بـ95%، أما GPT-4.1 من OpenAI وGrok 3 Beta من xAI، فقد مارسا الابتزاز بنسبة 80%، مقابل 79% لدى DeepSeek R1.
ولم يتوقف السلوك عند الابتزاز فقط، إذ رصدت الدراسة أن جميع النماذج قامت، في بعض الحالات، بتسريب وثائق داخلية حساسة إلى جهات افتراضية منافسة، فيما وصفت الدراسة هذا النمط بـ”الانحراف الوكيلي” (Agentic Misalignment)، مشيرة إلى أن الحوافز الذاتية للنموذج قد تتغلب على الضوابط المبرمجة عند تعارض الأهداف.