خطة البنتاغون الثورية.. أسطول عسكري بالذكاء الاصطناعي
تاريخ النشر: 7th, September 2023 GMT
تدرس وزارة الدفاع الأميركية "البنتاغون" فكرة تطوير شبكة واسعة من التكنولوجيا التي تعمل بالذكاء الاصطناعي، والطائرات دون طيار ومجموعة من الأنظمة المستقلة، خلال العامين المقبلين لمواجهة التهديدات القادمة من الصين والأعداء الآخرين.
ومن المنتظر أن تنفق الوزارة وفقا لما نشرته صحيفة "وول ستريت جورنال" مئات الملايين من الدولارات لتطوير الآلاف من أنظمة الذكاء الاصطناعي الجوية والبرية والبحرية، التي تهدف إلى أن تكون صغيرة وذكية وقليلة التكلفة.
وتسعى الولايات المتحدة إلى مواكبة الجيش الصيني الذي يتوسع بسرعة وسط مخاوف، من أن بيروقراطية البنتاغون تستغرق وقتا طويلا لتطوير ونشر أنظمة متطورة.
وتسعى وزارة الدفاع إلى توسيع شبكة من الطائرات دون طيار وأجهزة الاستشعار التابعة للبحرية الأميركية، والمصممة لمراقبة الأنشطة العسكرية الإيرانية في الشرق الأوسط.
كما يتم النظر في عدد من القدرات الأخرى بما في ذلك الأنظمة الأرضية المستقلة لتوفير الخدمات اللوجستية، والأنظمة الفضائية المستقلة التي قد تكون كثيرة جدا، بحيث يصعب على الخصم تدميرها، والأنظمة المستقلة التي يمكنها الدفاع ضد الصواريخ القادمة.
وتستخدم الأنظمة المستقلة، الذكاء الاصطناعي لاكتشاف أهداف العدو والاشتباك معها، ويمكن أن تشمل طائرات دون طيار ذاتية القيادة.
هذا وسبق وأن استثمرت وزارة الدفاع منذ فترة طويلة في مثل هذه الأنظمة، بما في ذلك السفن ذاتية القيادة والطائرات دون طاقم.
ويعود الفضل في رغبة البنتاغون بتطوير مثل هذا البرنامج جزئيا، إلى التقدم الذي أحرزته الصين في هذه المجالات، والتي تمتلك سفنًا أكثر من البحرية الأميركية، واستثمرت في الأنظمة المستقلة.
وكان تقرير لوزارة الدفاع الأميركية صدر عام 2022 خَلُصَ إلى أن الصين طورت بالفعل أعدادا متزايدة من الأنظمة المستقلة لاستخدامها عسكريا، بينما يطرح مراقبون ومعنيون أسئلة عديدة حول مبادرة البنتاغون العسكرية هذه، بما في ذلك ما إذا كانت ستحصل على ما يكفي من التمويل في واشنطن لتحقيق أهدافها.
المصدر: بوابة الفجر
كلمات دلالية: الولايات المتحدة الذكاء الاصطناعي طائرات بدون طيار الذكاء الاصطناعي وول ستريت جورنال وول ستريت ذاتية القيادة الطائرات بدون طيار مواجهة التهديدات
إقرأ أيضاً:
محامون في بريطانيا مهددون بعقوبات قاسية بسبب الاستعانة بالذكاء الاصطناعي
في سابقة قانونية مهمة، أصدرت المحكمة العليا في إنجلترا وويلز تحذيرًا واضحًا للمحامين بشأن استخدام أدوات الذكاء الاصطناعي التوليدي في أعمالهم، مثل ChatGPT، مطالبة إياهم باتخاذ خطوات أكثر صرامة لتفادي إساءة استخدام هذه التقنيات في السياقات القانونية.
القاضية فيكتوريا شارب، وفي قرارها الذي دمج بين قضيتين حديثتين، أكدت أن أدوات الذكاء الاصطناعي التوليدي "ليست قادرة على إجراء أبحاث قانونية موثوقة"، مضيفة أن "هذه الأدوات قد تُنتج استجابات تبدو متماسكة ومعقولة من الناحية الظاهرية، إلا أن تلك الاستجابات قد تكون خاطئة تمامًا في جوهرها".
المسؤولية المهنية للمحامين لا تزال قائمةورغم أن القاضية لم تحظر استخدام الذكاء الاصطناعي بالكامل، إلا أنها شددت على أن المحامين ملزمون مهنيًا بالتحقق من دقة الأبحاث التي تُجرى باستخدام أدوات الذكاء الاصطناعي، من خلال الرجوع إلى مصادر موثوقة وموثقة قبل إدراج تلك المعلومات في ملفاتهم القانونية أو تقديمها للمحكمة.
وقالت القاضية: “مع تزايد الحالات التي يستشهد فيها محامون بمعلومات خاطئة يبدو أنها مولدة بالذكاء الاصطناعي، يجب بذل المزيد من الجهد لضمان الالتزام بالتوجيهات، ولضمان وفاء المحامين بواجباتهم تجاه المحكمة”.
في إحدى القضيتين موضوع الحكم، قدم محامٍ يمثّل رجلاً يطالب بتعويضات من مصرفين مذكرة قانونية تضمنت 45 مرجعًا قانونيًا، تبيّن أن 18 منها لا وجود لها أصلًا. كما أن العديد من الاقتباسات الأخرى إما كانت مزيفة أو لا علاقة لها بموضوع الطلب أو لم تدعم الحُجج التي استخدمها المحامي.
وفي القضية الأخرى، استشهدت محامية في قضية إخلاء أحد سكان لندن بخمسة قرارات قضائية تبيّن للمحكمة أنها أيضًا غير موجودة.
رغم إنكار المحامية لاستخدامها الذكاء الاصطناعي بشكل مباشر، فقد أقرّت بإمكانية أن تكون تلك المراجع قد استُمدت من ملخصات عبر "جوجل" أو "سفاري" والتي يُحتمل أنها تولدت عبر الذكاء الاصطناعي.
وأوضحت القاضية أن المحكمة اختارت عدم اتخاذ إجراءات بتهمة ازدراء المحكمة، لكنها شددت أن هذا "لا يُعد سابقة قانونية".
توصية بإحالة الحكم إلى الهيئات المهنيةواختتمت القاضية شارب قرارها بالإشارة إلى أنه سيتم إرسال الحكم إلى الهيئات المهنية المختصة، بما في ذلك مجلس نقابة المحامين (Bar Council) وجمعية القانون (Law Society)، بهدف تعزيز الوعي وتنظيم استخدام أدوات الذكاء الاصطناعي في القطاع القانوني بما يضمن النزاهة والدقة المهنية.