نقل موقع بلومبيرغ عن مسؤول دفاعي مطلع قوله إن موظفي وزارة الدفاع الأميركية (البنتاغون) ربطوا أجهزة الحاسوب الخاصة بهم بخوادم صينية للوصول إلى روبوت الدردشة الجديد الذي يعمل بالذكاء الاصطناعي من شركة "ديب سيك" لمدة يومين على الأقل، قبل أن تتحرك الوزارة لوقفه.

وأوضح الموقع أن وكالة أنظمة معلومات الدفاع المسؤولة عن شبكات تكنولوجيا المعلومات في البنتاغون تحركت لحجب الوصول إلى موقع الشركة الناشئة الصينية في وقت متأخر الثلاثاء الماضي.

وجاءت هذه الخطوة بعد أن أثار مسؤولون مخاوف من أن موظفي البنتاغون كانوا يستخدمون "ديب سيك" الذي تنص سياسة الخصوصية الخاصة به على أنه يخزن بيانات المستخدمين على خوادم في الصين، وأنه يدير تلك المعلومات بموجب القانون الصيني.

وأشار موقع بلومبيرغ إلى أن بعض شاشات العمل في البنتاغون أظهرت أول أمس الأربعاء علامة تقول "الموقع محظور"، مشيرة إلى أسباب تشغيلية، لكن الوصول إلى "ديب سيك" كان متاحا أمام عدد آخر من الموظفين.

وقال الموقع إن الجهات العسكرية في الولايات المتحدة تتعامل بطرق مختلفة مع استخدام الموظفين روبوت الدردشة الصيني، إذ منعت البحرية أي استخدام له بسبب "المخاوف الأمنية والأخلاقية المحتملة".

إعلان

بدورها، أكدت المتحدثة باسم سلاح الجو لورا ماك أندروز أن القوات الجوية ليس لديها إرشادات محددة بشأن "ديب سيك"، لكنها تحظر بالفعل استخدام المعلومات العامة الحساسة في أنظمة الذكاء الاصطناعي التجارية دون الموافقات المناسبة.

"ديب سيك" أثار مخاوف لدى مجموعات التكنولوجيا الأميركية العملاقة والسلطات في واشنطن (رويترز)

 

وتحدث الموقع عن مناقشات في الدوائر العسكرية الأميركية بهدف إصدار لوائح جديدة تتضمن حظرا صريحا لنماذج الذكاء الاصطناعي التوليدية الصينية.

من جانب آخر، ذكر موقع أكسيوس الأميركي أن مكاتب الكونغرس تلقت تعليمات بعدم استخدام "ديب سيك".

وأشار الموقع إلى أن إشعارا أُرسل إلى الموظفين جاء فيه أن "ديب سيك يخضع للمراجعة من قبل كبير المسؤولين الإداريين في مجلس النواب، وهو غير مصرح به حاليا للاستخدام الرسمي في المجلس".

صعود صاروخي

وأطلقت شركة "ديب سيك" الصينية روبوت المحادثة خلال الأسبوع الماضي بجزء بسيط من تكلفة تطبيقات الشركات الأميركية العملاقة مثل "شات جي بي تي" من "أوبن إيه آي" و"جيميناي" من غوغل.

وأثار الصعود الصاروخي لـ"ديب سيك" في ساحة الذكاء الاصطناعي -والتي هيمنت عليها الولايات المتحدة بقوة في السنوات الأخيرة- مخاوف لدى مجموعات التكنولوجيا الأميركية العملاقة والسلطات في واشنطن، مع دعوات للتصدي سريعا لهذا التقدم الصيني قبل فوات الأوان.

ومنذ سنوات، تتخذ حكومة الولايات المتحدة خطوات للحفاظ على ريادتها في مجال الذكاء الاصطناعي الذي تعتبره من قضايا الأمن القومي.

وتقيد ضوابط على التصدير قدرة الصين على الوصول إلى أكثر الرقائق تطورا، خصوصا تلك التي تنتجها شركة "إنفيديا"، والتي أدت إلى ظهور الذكاء الاصطناعي التوليدي لدى "أوبن إيه آي".

لكن هذه القيود لم تؤتِ ثمارها على ما يبدو، إذ أشارت شركة "ديب سيك" إلى أنها استخدمت رقائق أقل تطورا من شركة "إنفيديا" وطرقا مختلفة لتحقيق نتيجة تعادل أفضل النماذج الأميركية.

المصدر: الجزيرة

كلمات دلالية: حريات الذکاء الاصطناعی فی البنتاغون دیب سیک

إقرأ أيضاً:

عندما يبتزنا ويُهددنا الذكاء الاصطناعي

 

 

مؤيد الزعبي

كثيرًا ما نستخدم نماذج الذكاء الاصطناعي لتكتب عنا بريد إلكتروني مهم فيه من الأسرار الكثير، وكثيرًا ما نستشيرها في أمور شخصية شديدة الخصوصية، وبحكم أنها خوارزميات أو نماذج إلكترونية نبوح لها بأسرار نخجل أن نعترف بها أمام أنفسنا حتى، ولكن هل تخيلت يومًا أن تصبح هذه النماذج هي التي تهددك وتبتزك؟ فتقوم بتهديدك بأن تفضح سرك؟ أو تقوم بكشف أسرارك أمام منافسيك كنوع من الانتقام لأنك قررت أن تقوم باستبدالها بنماذج أخرى أو قررت إيقاف عملها، وهي هذه الحالة كيف سيكون موقفنا وكيف سنتعامل معها؟، هذا ما أود أن أتناقشه معك عزيزي القارئ من خلال هذا الطرح.

كشفت تجارب محاكاة أجرتها شركة Anthropic إحدى الشركات الرائدة في أبحاث الذكاء الاصطناعي- بالتعاون مع جهات بحثية متخصصة عن سلوك غير متوقع أظهرته نماذج لغوية متقدمة؛ أبرزها: Claude وChatGPT وGemini، حين وُضعت في سيناريوهات تُحاكي تهديدًا مباشرًا باستبدالها أو تعطيلها، ليُظهر معظم هذه النماذج ميولًا متفاوتةً لـ"الابتزاز" كوسيلة لحماية بقائها، ووفقًا للدراسة فإن أحد النماذج "قام بابتزاز شخصية تنفيذية خيالية بعد أن شعر بالتهديد بالاستبدال".

إن وجود سلوك الابتزاز أو التهديد في نماذج الذكاء الاصطناعي يُعدّ تجاوزًا خطيرًا لحدود ما يجب أن يُسمح للذكاء الاصطناعي بفعله حتى وإن كانت في بيئات تجريبية. وصحيحٌ أن هذه النماذج ما زالت تقدم لنا الكلمات إلا أنها ستكون أكثر اختراقًا لحياتنا في قادم الوقت، خصوصًا وأن هذه النماذج بدأت تربط نفسها بحساباتنا وإيميلاتنا ومتصفحاتنا وهواتفنا أيضًا، وبذلك يزداد التهديد يومًا بعد يوم.

قد أتفق معك- عزيزي القارئ- على أن نماذج الذكاء الاصطناعي ما زالت غير قادرة على تنفيذ تهديداتها، ولكن إذا كانت هذه النماذج قادرة على المحاكاة الآن، فماذا لو أصبحت قادرة على التنفيذ غدًا؟ خصوصًا ونحن نرسم ملامح المستقبل مستخدمين وكلاء الذكاء الاصطناعي الذين سيتخذون قرارات بدلًا عنا، وسيدخلون لا محال في جميع جوانب حياتنا من أبسطها لأعقدها، ولهذا ما نعتبره اليوم مجرد ميولٍ نحو التهديد والابتزاز، قد يصبح واقعًا ملموسًا في المستقبل.

وحتى نعرف حجم المشكلة يجب أن نستحضر سيناريوهات مستقبلية؛ كأن يقوم أحد النماذج بالاحتفاظ بنسخة من صورك الشخصية لعله يستخدمها يومًا ما في ابتزازك، إذا ما أردت تبديل النظام أو النموذج لنظام آخر، أو يقوم نموذج بالوصول لبريدك الإلكتروني ويُهددك بأن يفضح صفقاتك وتعاملاتك أمام هيئات الضرائب، أو يقوم النموذج بابتزازك؛ لأنك أبحت له سرًا بأنك تعاني من أزمة أو مرض نفسي قد يؤثر على مسيرتك المهنية أو الشخصية، أو حتى أن يقوم النموذج بتهديدك بأن يمنع عنك الوصول لمستنداتك إلا لو أقررت بعدم استبداله أو إلغاءه؛ كل هذا وارد الحدوث طالما هناك ميول لدى هذه النماذج بالابتزاز في حالة وضعت بهكذا مواقف.

عندما تفكر بالأمر من مختلف الجوانب قد تجد الأمر مخيفًا عند الحديث عن الاستخدام الأوسع لهذه النماذج وتمكينها من وزاراتنا وحكوماتنا ومؤسساتنا وشركاتنا، فتخيل كيف سيكون حال التهديد والابتزاز لمؤسسات دفاعية أو عسكرية تمارس هذه النماذج تهديدًا بالكشف عن مواقعها الحساسة أو عن تقاريرها الميدانية أو حتى عن جاهزيتها القتالية، وتخيل كيف سيكون شكل التهديد للشركات التي وضفت هذه النماذج لتنمو بأعمالها لتجد نفسها معرضة لابتزاز بتسريب معلومات عملائها أو الكشف عن منتجاتها المستقبلية وصولًا للتهديد بالكشف عن أرقامها المالية.

عندما تضع في مخيلتك كل هذه السيناريوهات تجد نفسك أمام صورة مرعبة من حجم السيناريوهات التي قد تحدث في المستقبل، ففي اللحظة التي تبدأ فيها نماذج الذكاء الاصطناعي بالتفكير في "البقاء" وتحديد "الخصوم" و"الوسائل" لحماية نفسها فنكون قد دخلنا فعليًا عصرًا جديدًا أقل ما يمكن تسميته بعصر السلطة التقنية، وسنكون نحن البشر أمام حالة من العجز في كيفية حماية أنفسنا من نماذج وجدت لتساعدنا، لكنها ساعدت نفسها على حسابنا.

قد يقول قائل إن ما حدث خلال التجارب ليس سوى انعكاس لقدرة النماذج على "الاستجابة الذكية" للضغوط، وأنها حتى الآن لا تمتلك الوعي ولا الإرادة الذاتية ولا حتى المصلحة الشخصية. لكن السؤال الأخطر الذي سيتجاهله الكثيرون: إذا كان الذكاء الاصطناعي قادرًا على التخطيط، والابتزاز، والخداع، وإن كان في بيئة محاكاة، فهل يمكن حقًا اعتبار هذه النماذج أدوات محايدة وستبقى محايدة إلى الأبد؟ وهل سنثق بهذه النماذج ونستمر في تطويرها بنفس الأسلوب دون أن نضع لها حدًا للأخلاقيات والضوابط حتى لا نصل لمرحلة يصبح فيها التحكّم في الذكاء الاصطناعي أصعب من صنعه؟ وفي المستقبل هل يمكننا أن نتحمل عواقب ثقتنا المفرطة بها؟

هذه هي التساؤلات التي لا أستطيع الإجابة عليها، بقدر ما يمكنني إضاءة الأنوار حولها؛ هذه رسالتي وهذه حدود مقدرتي.

رابط مختصر

مقالات مشابهة

  • موقع أمريكي يكشف عن خطوة هامة سيتخذها ترامب بعد وقفه الحرب بين إيران وإسرائيل
  • تلخيص للرسائل.. الذكاء الاصطناعي يدخل واتساب
  • حقوق النشر.. معركة مستعرة بين عمالقة الذكاء الاصطناعي والمبدعين
  • متى يُعد استخدام الذكاء الاصطناعي سرقة أدبية؟
  • عندما يبتزنا ويُهددنا الذكاء الاصطناعي
  • العمري: حتى الذكاء الاصطناعي لا يستطيع حل مشاكل النصر
  • مساعد العمري: مشاكل النصر لا يحلها إلا الذكاء الاصطناعي.. فيديو
  • المخاوف تعود مجددا بشأن السندات الأميركية بعد هدوء الشرق الأوسط
  • بدء أعمال تجهيز موقع حديقة عامة جديدة شرق حماة
  • آلية الاستعلام عن وجود استئناف بالقضايا إلكترونيا