انظمة وقواعد جديدة.. الذكاء الاصطناعي يتدخل بحروب المستقبل
تاريخ النشر: 14th, May 2024 GMT
يوما بعد يوم، تتزايد استخدامات الذكاء الاصطناعي وتمتد لتشمل مختلف مجالات الحياة وأصبح الآن لدى الجيش الأمريكي مجموعة من المشروعات القائمة على الذكاء الاصطناعي والتي يمكن أن تعيد تشكيل الحرب. ووسط تهديدات الحروب المستقبلية مع قوة عظمى مثل الصين أو روسيا، تستطيع الحرب الإلكترونية والأسلحة المضادة للأقمار الصناعية أن تترك الجيش الأمريكي بدون نظام تحديد المواقع العالمي (GPS) الذي يعد أداة بالغة الأهمية للملاحة والاستهداف.
هذا التحدي دفع القوات الجوية الأمريكية إلى تجربة استخدام الذكاء الاصطناعي كوسيلة بديلة للملاحة، وفقا لما ذكره موقع "بيزنس إنسايدر" الأمريكي.
وقال العقيد جاري فلويد، مدير إدارة القوات الجوية بمعهد ماساتشوستس للتكنولوجيا، إن الجيش ربما أضاف حلا إضافيا للتغلب على معضلة العمل في بيئة محرومة من نظام (جي بي إس).
والعام الماضي، اختبرت القوات الجوية استخدام برنامج الذكاء الاصطناعي للتنقل بطائرة شحن من طراز C-17 عبر المجالات المغناطيسية للأرض، وهي طريقة صعبة نظرًا لأن الضوضاء الكهرومغناطيسية الصادرة عن عناصر أخرى، بما في ذلك الطائرة نفسها، قد تؤدي إلى تعقيد المهمة.
وأوضح فلويد، في تصريحات لوكالة أسوشيتد برس، أن الذكاء الاصطناعي كان قادرًا على التعلم من خلال اختبارات الطيران ما هي الإشارات التي يجب اتباعها لتوجيه الطائرة.
وأضاف "لقد تعلمنا الكثير من الحرب في أوكرانيا، حيث يستخدم الجانبان الحرب الإلكترونية وانتحال نظام تحديد المواقع العالمي (GPS) للتشويش على الطائرات بدون طيار والصواريخ، وإلقاء الأسلحة خارج مسارها، وخلق تحديات أخرى".
ومنذ فترة طويلة، تعمل وزارة الدفاع الأمريكية (البنتاغون) على حلول الحرب الإلكترونية حيث تقوم بتطوير أجهزة مقاومة للتشويش وبدائل أخرى لا تعتمد على نظام (GPS) للحصول على الإحداثيات.
والعام الماضي، قال أحد مسؤولي الدفاع إن الجيش "يعيد الاستثمار بشكل أساسي في إعادة بناء قدراتنا التكتيكية في الحرب الإلكترونية بعد أن تركنا القوة إلى حد كبير على مدار العشرين عامًا الماضية".
ومشروع البديل الملاحي للقوات الجوية ليس الوحيد الذي يبحث في كيفية دمج الذكاء الاصطناعي في الأنظمة العسكرية، فعلى سبيل المثال، أعلن المسؤولون الشهر الماضي عن اختبار تاريخي بين طائرة مقاتلة من طراز F-16 يقودها الذكاء الاصطناعي ومقاتلة يقودها طيار.
ولم يكشف المسؤولون عن الفائز في الاختبار لاعتبارات تتعلق بالأمن القومي إلا أن أحدهم قال إن برنامج الذكاء الاصطناعي المستخدم كان "يتقدم بشكل جيد أو أسرع مما كنا نأمل".
وخلال الأيام المقبلة، تعقد الولايات المتحدة والصين مناقشات في جنيف حول استخدام الذكاء الاصطناعي.
المصدر: السومرية العراقية
كلمات دلالية: الحرب الإلکترونیة الذکاء الاصطناعی
إقرأ أيضاً:
خلال محاكمة.. الذكاء الاصطناعي يحيل إلى مرجع غير موجود
في محاكمة بين "أنثروبيك" للذكاء الاصطناعي وأصحاب حقوق ملكية فكرية، تضمنت مذكرة قضائية للدفاع عن الشركة الناشئة إشارة إلى مرجع وهمي لا وجود له.
بدأ الذكاء الاصطناعي يغير تدريجيا طريقة العمل في المجال القضائي. فبينما تسهّل هذه الأداة البحث في السوابق القضائية، يجب أن تخضع مخرجاتها للمراقبة بسبب قدرتها على الهلوسة.
وقد برز هذا مؤخرًا في محاكمة بين شركة "أنثروبيك" للذكاء الاصطناعي وشركات موسيقية. في أكتوبر 2023، طلبت شركات موسيقى من القضاة الاتحاديين في ولاية كاليفورنيا حظر استخدام دليلها الموسيقي لتدريب نماذج الذكاء الاصطناعي الخاصة بشركة "أنثروبيك".
رفض القضاة هذا الطلب في مارس 2025، معتبرين أنه لا يوجد دليل على ضرر لا يمكن إصلاحه. بعد ذلك، رفع المدعون دعوى قضائية أخرى تتعلق بانتهاك حقوق الطبع والنشر. تكمن إحدى نقاط الخلاف الرئيسية في هذه القضية في فحص حجم العينة المتفاعلة مع أداة "كلود" للذكاء الاصطناعي التابعة لشركة "أنثروبيك"، لتحديد وتيرة إعادة إنتاج الذكاء الاصطناعي لكلمات الأغاني المحمية أو توليدها.
مرجع وهمي
قدمت أوليفيا تشين، عالمة البيانات في شركة "أنثروبيك"، مذكرة إلى المحكمة تُجادل فيها بأن عينة من مليون تفاعل مستخدم كافية لتقديم "معدل انتشار معقول" لظاهرة نادرة: مستخدمو الإنترنت يبحثون عن كلمات الأغاني. وقدّرت أن هذه الحالة لا تُمثل سوى 0.01% من التفاعلات. وفي شهادتها، استشهدت بمقال أكاديمي نُشر في مجلة "الإحصائي الأميركي" تبيّن لاحقا أنه غير موجود.
طلب المدعون من المحكمة استدعاء أوليفيا تشين ورفض أقوالها بسبب الإحالة إلى هذا المراجع الزائف. ومع ذلك، منحت المحكمة شركة "أنثروبيك" وقتًا للتحقيق. وقد وصف محامي الشركة الناشئة الحادثة بأنها "خطأ بسيط في الاستشهاد"، وأقرّ بأن أداة "كلود" للذكاء الاصطناعي استُخدمت "لتنسيق ثلاثة مراجع ببليوغرافية على الأقل بشكل صحيح". وفي هذا السياق، اخترع الذكاء الاصطناعي مقالاً وهمياً، مع مؤلفين خاطئين لم يعملوا معًا قط.
تجنب أخطاء الذكاء الاصطناعي
تُسلّط هذه الحادثة الضوء على الانتشار المُقلق للأخطاء الناتجة عن الذكاء الاصطناعي في الإجراءات القانونية، وهي ظاهرة متنامية تُعرّض الشركات لمخاطر جسيمة، لا سيما عندما يعتمد محاموها على هذه الأدوات لجمع المعلومات وصياغة الوثائق القانونية.
يقول برايان جاكسون، مدير الأبحاث في مجموعة Info-Tech Research Group "خلق استخدام الذكاء الاصطناعي نوعًا من الكسل الذي أصبح مصدر قلق في المجال القانوني". ويضيف: "لا ينبغي استخدام أدوات الذكاء الاصطناعي كحل شامل لإنتاج الوثائق اللازمة للملفات القضائية".