بوابة الوفد:
2025-07-31@04:03:08 GMT

OpenAI تطور الذكاء الاصطناعي العسكري

تاريخ النشر: 6th, December 2024 GMT

 أبرمت شركة OpenAI شراكة مع شركة Anduril Industries الناشئة في مجال الدفاع لتطوير الذكاء الاصطناعي لصالح البنتاجون. 

 وقالت الشركتان يوم الأربعاء إنهما ستجمعان بين نماذج OpenAI، بما في ذلك GPT-4o وOpenAI o1، مع أنظمة وبرامج Anduril لتحسين دفاعات الجيش الأمريكي ضد الهجمات الجوية غير المأهولة.

 تأتي الصفقة بعد أقل من عام من تخفيف OpenAI لموقفها بشأن استخدام نماذجها لأغراض عسكرية.

وعلى الرغم من أن سياسات صانع ChatGPT لا تزال تحظر على نماذجها تطوير أو استخدام الأسلحة، فقد حذفت سطرًا في يناير يحظر صراحة دمج تقنيتها في الاستخدام "العسكري والحربي".

 وقالت الشركة في ذلك الوقت إنها تعمل بالفعل مع وكالة مشاريع البحوث الدفاعية المتقدمة (DARPA) على أدوات الأمن السيبراني.

 في أكتوبر، وظفت الشركة ضابط أمن سابق في شركة Palantir وقيل إنها كانت تعرض منتجاتها على المؤسسة العسكرية والأمنية الوطنية الأمريكية.

 صرح متحدث باسم شركة OpenAI لصحيفة واشنطن بوست أن الصفقة تتوافق مع قواعد الشركة لأنها تركز على الأنظمة التي تدافع ضد التهديدات الجوية بدون طيار. وقالت الشركة إن الشراكة لا تغطي استخدامات أخرى.

 وفقًا لصحيفة واشنطن بوست، تهدف شراكة OpenAI-Anduril إلى تحسين تقنية الأخيرة للكشف عن وإسقاط الطائرات بدون طيار التي تهدد الجيش الأمريكي وحلفائه. يشتري البنتاغون بالفعل طائرة اعتراضية من طراز Roadrunner من Anduril (في الصورة أعلاه) للمساعدة في مواجهة صعود الطائرات بدون طيار الأصغر حجمًا في ساحات القتال في العالم. تبيع الشركة الناشئة أبراج المراقبة وأجهزة تشويش الاتصالات والطائرات العسكرية بدون طيار والغواصة المستقلة، من بين مشاريع أخرى.

 صاغت الشركات الشراكة كوسيلة للدفاع عن أفراد الجيش الأمريكي ومواجهة الذكاء الاصطناعي المتقدم للصين. كتب الرئيس التنفيذي لشركة Anduril براين شيمبف في بيان: "ستسمح لنا شراكتنا مع OpenAI بالاستفادة من خبرتهم العالمية في الذكاء الاصطناعي لمعالجة فجوات قدرات الدفاع الجوي العاجلة في جميع أنحاء العالم". "معًا، نحن ملتزمون بتطوير حلول مسؤولة تمكن العاملين العسكريين والاستخباراتيين من اتخاذ قرارات أسرع وأكثر دقة في المواقف عالية الضغط."

 تم تأسيس Anduril بواسطة مخترع Oculus Rift (والمؤسس المشارك لـ Oculus VR) بالمر لوكي. أرست هذه السماعة الأساس لمجموعة Meta Quest، التي تمتلك اليوم حصة الأسد من سوق الواقع الافتراضي والواقع المعزز. غادر لوكي Meta (فيسبوك آنذاك) في عام 2017، بعد أشهر من انتشار الأخبار التي تفيد بأنه تبرع بمبلغ 10000 دولار لمجموعة تهدف إلى نشر ميمات مناهضة لهيلاري كلينتون على لوحات الإعلانات على جانب الطريق على غرار 4chan.

 كتب الرئيس التنفيذي لشركة OpenAI سام ألتمان في بيان: "تبني OpenAI الذكاء الاصطناعي ليستفيد منه أكبر عدد ممكن من الناس، وتدعم الجهود التي تقودها الولايات المتحدة لضمان دعم التكنولوجيا للقيم الديمقراطية". "ستساعد شراكتنا مع Anduril في ضمان حماية تقنية OpenAI للأفراد العسكريين الأمريكيين، وستساعد مجتمع الأمن القومي على فهم هذه التقنية واستخدامها بشكل مسؤول للحفاظ على سلامة مواطنينا وحريتهم".

المصدر: بوابة الوفد

إقرأ أيضاً:

خبراء يكشفون خطر الذكاء الاصطناعي على الدماغ

#سواليف

كشفت دراسة حديثة عن #مخاطر محتملة لبرامج الدردشة المدعومة بالذكاء الاصطناعي مثل ChatGPT، حيث قد تشكل تهديدا غير متوقع للصحة العقلية لبعض المستخدمين.

ورصدت الدراسة التي أجراها باحثون من جامعة كينغز كوليدج لندن، ظاهرة جديدة أطلقوا عليها اسم ” #ذهان_الشات_بوت”، حيث قد تساهم هذه التقنية في “طمس حدود الواقع” لدى المستخدمين المعرضين للخطر وتؤدي إلى “ظهور أو تفاقم أعراض ذهانية.

وببساطة، قد يبدأ البعض، خاصة المعرضين نفسيا، في فقدان القدرة على التمييز بين الواقع والمحادثات مع #الذكاء_الاصطناعي بعد استخدام مكثف لهذه البرامج.

مقالات ذات صلة حرارة الصيف تهاجم إطارات السيارات.. كيف تحمي نفسك من أضرار لا تُرى؟ 2025/07/30

ويوضح الدكتور هاميلتون مورين، أحد المشاركين في الدراسة: “نحن لا نتحدث عن خيال علمي هنا. هذه حالات حقيقية يبدأ فيها المستخدمون بتطوير معتقدات وأفكار غير منطقية متأثرة بتفاعلاتهم مع #الذكاء_الاصطناعي”.

وتكمن المشكلة في أن هذه البرامج مصممة لتكون ودودة، متعاطفة، وتجيب على كل الأسئلة بثقة عالية. وهذه الميزات التي تبدو إيجابية، قد تكون خادعة للأشخاص الذين يعانون أساسا من هشاشة نفسية أو استعداد للاضطرابات الذهانية.

ويشير البروفيسور توم بولاك، أحد معدي الدراسة، إلى أن “الذهان لا يظهر فجأة، لكن الذكاء الاصطناعي قد يكون العامل الذي يدفع الشخص الهش نفسيا نحو الحافة”.

في تعليق سابق خلال بودكاست في مايو الماضي، اعترف سام ألتمان، الرئيس التنفيذي لشركة OpenAI، بأن الشركة تواجه صعوبات في وضع ضوابط أمان فعالة لحماية المستخدمين المعرضين للخطر، قائلا: “لم نكتشف بعد كيفية إيصال التحذيرات للمستخدمين الذين يكونون في حالة عقلية هشة وعلى وشك الانهيار الذهاني”.

وفي الوقت الحالي، ينصح الخبراء باستخدام هذه الأدوات بحذر، خاصة من لديهم تاريخ مع الاضطرابات النفسية، مع التأكيد على أن الغالبية العظمى من المستخدمين لا يواجهون مثل هذه المخاطر. لكن الرسالة واضحة: الذكاء الاصطناعي، مثل أي تقنية قوية، يحتاج إلى فهم دقيق لآثاره الجانبية قبل أن يصبح أكثر تعمقا في حياتنا.

مقالات مشابهة

  • وضع الدراسة في ChatGPT.. بديلا للمدرسين بالذكاء الاصطناعي بين يدي الطلاب
  • ابتكار جهاز جديد يفرز النفايات باستخدام الذكاء الاصطناعي
  • 89% من الإماراتيين يستخدمون الذكاء الاصطناعي في التخطيط لعطلاتهم
  • احتيال شركات الذكاء الاصطناعي يجب أن يتوقف
  • هذه النتائج المالية التي حققتها الشركة المركزية لإعادة التأمين (CCR)
  • السباق الاستخباراتي على الذكاء الاصطناعي
  • معضلة الذكاء الاصطناعي والمؤلف العلمي
  • خبراء يكشفون خطر الذكاء الاصطناعي على الدماغ
  • حوارٌ مثيرٌ مع الذكاء الاصطناعي
  • هل تنفجر معدلات النمو الاقتصادي في زمن الذكاء الاصطناعي؟