أكدت شركة جوجل أن الذكاء الاصطناعي يمتلك القدرة على إحداث تأثير تحولي حقيقي في مجال العمل الاستخباراتي والأمن السيبراني.

أخبار ذات صلة بيل جيتس: الذكاء الاصطناعي ضروري للابتكار في الصحة والتعليم باستخدام الذكاء الاصطناعي.. "جوجل" تبسط أصعب النصوص!

وقال جون هولتكويست، كبير المحللين في مجموعة استقصاء معلومات التهديدات لدى شركة جوجل، في تصريح لوكالة أنباء الإمارات «وام»، على هامش فعاليات «جيسيك جلوبال 2025» المقام حالياً في مركز دبي التجاري العالمي، إن الذكاء الاصطناعي يثبت فعاليته الكبيرة في معالجة كميات هائلة من المعلومات وتلخيصها، وهو أمر بالغ الأهمية عند محاولة شرح المخاطر لصناع القرار، وهو جوهر عمل الاستخبارات، وهناك الكثير من العمل الروتيني الذي يستهلك وقت المحللين و«AI» يساعد في تقليص هذا الجهد بشكل ملحوظ، ما يسمح للمحللين بالتركيز على المهام التي تتطلب التفكير والتحليل البشري.


ولفت إلى أن الذكاء الاصطناعي يقدم فائدة كبيرة في تحليل البرمجيات الخبيثة «Malware»، ففي السابق عند اكتشاف برنامج خبيث جديد كنا نحتاج لأيام من العمل اليدوي لتحليله، الآن يمكن للذكاء الاصطناعي أن يجري تحليلاً عكسياً أولياً لهذا النوع من التهديدات بسرعة، مما يمكننا من اتخاذ قرارات أكثر ذكاء في وقت أقصر.
وفيما يتعلق بالمخاطر، أشار هولتكويست إلى أن التهديد الأكبر يكمن في إمكانية وصول الخصوم إلى نماذج الذكاء الاصطناعي، فهناك نماذج مفتوحة تطورها شركات أو دول أخرى، وبعضها متاح في السوق السوداء دون ضوابط أمنية الاستخدام، والأبرز حتى الآن من قبل الخصوم يتمثل في الهندسة الاجتماعية مثل إنشاء صور أو مقاطع فيديو أو محادثات مزيفة لخداع الأفراد وتحفيزهم على النقر على روابط ضارة أو فتح ملفات خبيثة.
وأضاف أن هذا النوع من الاستخدام ليس جديداً تماماً، فقد كانت الأدوات التقليدية مثل «فوتوشوب» تتيح فعل ذلك من قبل، لكن الذكاء الاصطناعي يسرع هذه العمليات ويزيد من كفاءتها، معرباً عن القلق من الاستخدامات المستقبلية، ولذلك نخصص وقتاً كبيراً لمراقبة الأنشطة العدائية في هذا المجال.
وأكد أهمية تبني الذكاء الاصطناعي بحذر ووعي، وقال: إن الذكاء الاصطناعي أداة قوية وعلينا استخدامها لتقليل الأعباء عن البشر وتعزيز قدرتنا على الاستجابة للتهديدات المتزايدة مع الاستمرار في مراقبة وتقييم مخاطر استخدامه من قبل الجهات الخبيثة. 
من جانبه، أكد جميل أبو عقل، المدير الإقليمي لهندسة النظم لدى خدمات جوجل كلاود الأمنية، أهمية التعاون بين مختلف القطاعات في المنطقة، وخاصة بين القطاعين الأكاديمي والتقني، لتطوير قدرات الأمن السيبراني، لافتاً إلى أن الاستثمار في تأسيس أكاديميات ومراكز تدريب متخصصة في الأمن السيبراني هو أمر بالغ الأهمية لمواكبة التحديات والتهديدات المستمرة في هذا المجال، وفي «جوجل كلاود» نؤمن بقوة بالتعاون بين الجامعات والقطاع التقني لتطوير الجيل القادم من الخبراء في هذا المجال.
وأشار إلى أن العديد من المشاريع التي يتم العمل عليها حالياً تختلف في أحجامها وطبيعتها من بلد لآخر، إلا أن التهديدات الأمنية المتنوعة تستدعي حلولاً مرنة ومتطورة، ويتم التركيز على تمكين الجامعات والمراكز البحثية في المنطقة من تطوير مهارات وقدرات الطلاب في مجال الأمن السيبراني من خلال شراكات استراتيجية، هذا التعاون سيسهم بشكل كبير في بناء بيئة آمنة ومستدامة. وأوضح أن المشروع الذي يتم العمل عليه حالياً يعد واحداً من المشاريع الرئيسية التي تهدف إلى تعزيز التعاون بين القطاعين الأكاديمي والتقني وتوفير فرص تعليمية متطورة تواكب احتياجات السوق المتزايدة في مجال الأمن السيبراني، لافتاً إلى أن دعم التعليم الأكاديمي في مجالات التقنية والأمن السيبراني هو حجر الزاوية لبناء مستقبل آمن، وهو جزء أساسي من استراتيجيتنا لتطوير قدرات المنطقة في هذا القطاع الحيوي.

المصدر: وام

المصدر: صحيفة الاتحاد

كلمات دلالية: الذكاء الاصطناعي جوجل الذکاء الاصطناعی الأمن السیبرانی إلى أن فی هذا

إقرأ أيضاً:

عندما يبتزنا ويُهددنا الذكاء الاصطناعي

 

 

مؤيد الزعبي

كثيرًا ما نستخدم نماذج الذكاء الاصطناعي لتكتب عنا بريد إلكتروني مهم فيه من الأسرار الكثير، وكثيرًا ما نستشيرها في أمور شخصية شديدة الخصوصية، وبحكم أنها خوارزميات أو نماذج إلكترونية نبوح لها بأسرار نخجل أن نعترف بها أمام أنفسنا حتى، ولكن هل تخيلت يومًا أن تصبح هذه النماذج هي التي تهددك وتبتزك؟ فتقوم بتهديدك بأن تفضح سرك؟ أو تقوم بكشف أسرارك أمام منافسيك كنوع من الانتقام لأنك قررت أن تقوم باستبدالها بنماذج أخرى أو قررت إيقاف عملها، وهي هذه الحالة كيف سيكون موقفنا وكيف سنتعامل معها؟، هذا ما أود أن أتناقشه معك عزيزي القارئ من خلال هذا الطرح.

كشفت تجارب محاكاة أجرتها شركة Anthropic إحدى الشركات الرائدة في أبحاث الذكاء الاصطناعي- بالتعاون مع جهات بحثية متخصصة عن سلوك غير متوقع أظهرته نماذج لغوية متقدمة؛ أبرزها: Claude وChatGPT وGemini، حين وُضعت في سيناريوهات تُحاكي تهديدًا مباشرًا باستبدالها أو تعطيلها، ليُظهر معظم هذه النماذج ميولًا متفاوتةً لـ"الابتزاز" كوسيلة لحماية بقائها، ووفقًا للدراسة فإن أحد النماذج "قام بابتزاز شخصية تنفيذية خيالية بعد أن شعر بالتهديد بالاستبدال".

إن وجود سلوك الابتزاز أو التهديد في نماذج الذكاء الاصطناعي يُعدّ تجاوزًا خطيرًا لحدود ما يجب أن يُسمح للذكاء الاصطناعي بفعله حتى وإن كانت في بيئات تجريبية. وصحيحٌ أن هذه النماذج ما زالت تقدم لنا الكلمات إلا أنها ستكون أكثر اختراقًا لحياتنا في قادم الوقت، خصوصًا وأن هذه النماذج بدأت تربط نفسها بحساباتنا وإيميلاتنا ومتصفحاتنا وهواتفنا أيضًا، وبذلك يزداد التهديد يومًا بعد يوم.

قد أتفق معك- عزيزي القارئ- على أن نماذج الذكاء الاصطناعي ما زالت غير قادرة على تنفيذ تهديداتها، ولكن إذا كانت هذه النماذج قادرة على المحاكاة الآن، فماذا لو أصبحت قادرة على التنفيذ غدًا؟ خصوصًا ونحن نرسم ملامح المستقبل مستخدمين وكلاء الذكاء الاصطناعي الذين سيتخذون قرارات بدلًا عنا، وسيدخلون لا محال في جميع جوانب حياتنا من أبسطها لأعقدها، ولهذا ما نعتبره اليوم مجرد ميولٍ نحو التهديد والابتزاز، قد يصبح واقعًا ملموسًا في المستقبل.

وحتى نعرف حجم المشكلة يجب أن نستحضر سيناريوهات مستقبلية؛ كأن يقوم أحد النماذج بالاحتفاظ بنسخة من صورك الشخصية لعله يستخدمها يومًا ما في ابتزازك، إذا ما أردت تبديل النظام أو النموذج لنظام آخر، أو يقوم نموذج بالوصول لبريدك الإلكتروني ويُهددك بأن يفضح صفقاتك وتعاملاتك أمام هيئات الضرائب، أو يقوم النموذج بابتزازك؛ لأنك أبحت له سرًا بأنك تعاني من أزمة أو مرض نفسي قد يؤثر على مسيرتك المهنية أو الشخصية، أو حتى أن يقوم النموذج بتهديدك بأن يمنع عنك الوصول لمستنداتك إلا لو أقررت بعدم استبداله أو إلغاءه؛ كل هذا وارد الحدوث طالما هناك ميول لدى هذه النماذج بالابتزاز في حالة وضعت بهكذا مواقف.

عندما تفكر بالأمر من مختلف الجوانب قد تجد الأمر مخيفًا عند الحديث عن الاستخدام الأوسع لهذه النماذج وتمكينها من وزاراتنا وحكوماتنا ومؤسساتنا وشركاتنا، فتخيل كيف سيكون حال التهديد والابتزاز لمؤسسات دفاعية أو عسكرية تمارس هذه النماذج تهديدًا بالكشف عن مواقعها الحساسة أو عن تقاريرها الميدانية أو حتى عن جاهزيتها القتالية، وتخيل كيف سيكون شكل التهديد للشركات التي وضفت هذه النماذج لتنمو بأعمالها لتجد نفسها معرضة لابتزاز بتسريب معلومات عملائها أو الكشف عن منتجاتها المستقبلية وصولًا للتهديد بالكشف عن أرقامها المالية.

عندما تضع في مخيلتك كل هذه السيناريوهات تجد نفسك أمام صورة مرعبة من حجم السيناريوهات التي قد تحدث في المستقبل، ففي اللحظة التي تبدأ فيها نماذج الذكاء الاصطناعي بالتفكير في "البقاء" وتحديد "الخصوم" و"الوسائل" لحماية نفسها فنكون قد دخلنا فعليًا عصرًا جديدًا أقل ما يمكن تسميته بعصر السلطة التقنية، وسنكون نحن البشر أمام حالة من العجز في كيفية حماية أنفسنا من نماذج وجدت لتساعدنا، لكنها ساعدت نفسها على حسابنا.

قد يقول قائل إن ما حدث خلال التجارب ليس سوى انعكاس لقدرة النماذج على "الاستجابة الذكية" للضغوط، وأنها حتى الآن لا تمتلك الوعي ولا الإرادة الذاتية ولا حتى المصلحة الشخصية. لكن السؤال الأخطر الذي سيتجاهله الكثيرون: إذا كان الذكاء الاصطناعي قادرًا على التخطيط، والابتزاز، والخداع، وإن كان في بيئة محاكاة، فهل يمكن حقًا اعتبار هذه النماذج أدوات محايدة وستبقى محايدة إلى الأبد؟ وهل سنثق بهذه النماذج ونستمر في تطويرها بنفس الأسلوب دون أن نضع لها حدًا للأخلاقيات والضوابط حتى لا نصل لمرحلة يصبح فيها التحكّم في الذكاء الاصطناعي أصعب من صنعه؟ وفي المستقبل هل يمكننا أن نتحمل عواقب ثقتنا المفرطة بها؟

هذه هي التساؤلات التي لا أستطيع الإجابة عليها، بقدر ما يمكنني إضاءة الأنوار حولها؛ هذه رسالتي وهذه حدود مقدرتي.

رابط مختصر

مقالات مشابهة

  • تلخيص للرسائل.. الذكاء الاصطناعي يدخل واتساب
  • حقوق النشر.. معركة مستعرة بين عمالقة الذكاء الاصطناعي والمبدعين
  • صالون سياسي لحزب الإصلاح والنهضة يناقش الأمن السيبراني والسيادة الرقمية
  • متى يُعد استخدام الذكاء الاصطناعي سرقة أدبية؟
  • عندما يبتزنا ويُهددنا الذكاء الاصطناعي
  • العمري: حتى الذكاء الاصطناعي لا يستطيع حل مشاكل النصر
  • المملكة تنضم إلى توصية منظمة “OECD”.. السعودية رائد عالمي في تعزيز حوكمة الذكاء الاصطناعي
  • مساعد العمري: مشاكل النصر لا يحلها إلا الذكاء الاصطناعي.. فيديو
  • الشرطة السياحية تبحث تعزيز الأمن وحماية الآثار وتحسين بيئة العمل
  • دورة تدريبية بمسندم تناقش فرص الذكاء الاصطناعي