كشفت دراسة حديثة من كاسبرسكي عن قلق متزايد في أوساط الشركات حول تنامي استخدام الذكاء الاصطناعي (AI) في الهجمات السيبرانية. ووفقاً للنتائج في المملكة العربية السعودية ، أفادت 82% من الشركات التي شملها الاستطلاع بزيادة في الحوادث السيبرانية خلال العام الماضي، مع إشارة ما يقرب من نصف المشاركين في الاستطلاع (62%) إلى كون العديد من هذه الهجمات على الأرجح مدفوعة بالذكاء الاصطناعي.

وتُبرز الدراسة حقيقة أن الذكاء الاصطناعي، الذي أحدث ثورة في العديد من القطاعات، يساهم أيضاً في تمكين المجرمين السيبرانيين، مضيفاً طبقة أخرى من التعقيد إلى التهديدات التي تواجهها الشركات.

في آخر دراسة لها تحت عنوان «الدفاع السيبراني والذكاء الاصطناعي: هل أنت مستعد لحماية مؤسستك؟» قامت كاسبرسكي بجمع آراء مختصي أمن الأنظمة التقنية وأمن المعلومات، ممن يعملون في الشركات الصغيرة والمتوسطة والشركات الكبرى حول التحديات الجديدة في حماية مؤسساتهم من الهجمات السيبرانية التي تتضمن استخدام الذكاء الاصطناعي. 

يعتبر 76% من المشاركين في المملكة العربية السعودية في الاستطلاع استعانة المجرمين السيبرانيين بالذكاء الاصطناعي مصدر قلق جدي لهم. مدفوعة بضغط هذا التحدي، تتجه الشركات لإعادة تقييم استراتيجياتها للأمن السيبراني والبحث عن حلول تتسم بالاستباقية والشمولية في آن واحد. ولمكافحة التهديدات المعززة بالذكاء الاصطناعي بفعالية، ترى الشركات أنّ أبرز العوامل لحماية مؤسساتها هي على الترتيب التالي من حيث الأهمية: التدريب الدوري لمراكمة الخبرة الداخلية بنسبة (98%)، والموظفون المؤهلون تأهيلاً ممتازاً بنسبة (96%)، والخبرة الخارجية المرتبطة بالأمن السيبراني بنسبة (96%). كما تدرك الأهمية الكبيرة لوجود عددٍ كافٍ من الموظفين ضمن فرق تكنولوجيا المعلومات لديها بنسبة (98%)، فضلاً عن أهمية استخدام حلول أمان الطرف الثالث بنسبة (98%). 

رغم الوعي المتصاعد، إلا أن الدراسة تكشف عن وجود فجوة مقلقة في الجاهزية لدى العديد من الشركات. إذ يفتقر أكثر من نصف المؤسسات التي شملها الاستطلاع إلى الموارد الأساسية اللازمة لمواجهة هذه التهديدات المعقدة - فصرحت 64% من هذه المؤسسات بحاجتها للخبرة الخارجية الملائمة في الأمن السيبراني، وأفادت 58% منها بعدم كفاية فرق تكنولوجيا المعلومات خاصتها، وافتقار 49% منها إلى الموظفين ذوي المؤهلات العالية، و51% منها لا تقوم بتدريب منتظم بالشكل المطلوب. علاوة على ذلك، يعتقد 44% من المشاركين أن ما بحوزتهم من حلول أمنية ليس بالكافي، ما يعرضهم لثغرات محتملة. وفي حين يدعي معظم المشاركين معرفتهم بكيفية التعامل مع هذا النقص في الموارد، إلا أن الواقع هو أنها لا تزال غير متوفرة. 

قال أوليج جوروبيتس، خبير حماية البنية التحتية للشركات في كاسبرسكي: «يعكس مشهد الأمن السيبراني اليوم التحديات السابقة، حيث تتساءل الشركات عما إذا كانت الحلول الحالية تفي بالغرض. كما وتشهد برمجيات الفدية الآن طفرة خطيرة، وهي التي كانت من التهديدات الرئيسية سابقاً، وقد بدأ صناع القرار في عالم الأعمال ينشدون إجابات حول الأسباب وراء عودة هذا التهديد. ولعل في الاهتمام المتصاعد بالذكاء الاصطناعي تفسير مبسط، إن لمن يكن دقيقاً بالكامل. وفي الواقع، فرغم أن استخدام الذكاء الاصطناعي لإنشاء رسائل تصيد احتيالي مقنعة أو لتجميع معلومات بكفاءة أكبر قد يكون ذا فائدة، إلا أن السبب الأساسي أكثر بساطة؛ فقد بات المجرمون السيبرانيون على درجة أعلى في التنظيم، وأفضل في التعاون، وفي تطوير استراتيجيات هجوم مبتكرة، وفي تذليل العقبات أمام المهاجمين الأقل مهارة وموارداً. لذا، ففي حين أن من المجدي مراقبة تطور الذكاء الاصطناعي عن كثب، والذي من شأنه تميكن المهاجمين والمدافعين على حد سواء بخيارات مضافة، فهنالك استراتيجيات قوية يمكن للشركات اعتمادها على الفور، وينبغي عليها ذلك. إذ يتوجب على الشركات إعطاء الأولوية لتأمين بنية تكنولوجيا المعلومات التحتية الحرجة مع حلول محكمة متعددة الطبقات، بوسعها توفير سياق حماية موحد. فبالإمكان تحسين الدفاعات بشكل كبير عبر منظومة حل اكتشاف واستجابة موسعة، إلى جانب الخبرة المتمكنة، سواء الداخلية أو تلك التي من خلال إحدى الخدمات المدارة. علاوة على ذلك، يضيف تدريب الموظفين المستمر طبقة أخرى جوهرية من الحماية للمنظمة، بما يتضمنه من أساسيات الأمن السيبراني وممارسات الذكاء الاصطناعي الآمنة.»

 

لحماية الأعمال ضد التهديدات السيبرانية المعززة بالذكاء الاصطناعي، توصي كاسبرسكي بالشروع بالتدابير التالية: 

•           تأكد أن كل مستوى ومكون من شبكة تكنولوجيا المعلومات لديك محمي بواسطة حلول دفاعية قوية ومتعددة الطبقات. فحلول كاسبرسكي، بدءًا من Kaspersky Next، تحتوي جميعها على تقنيات ذكاء اصطناعي متقدمة تهدف إلى حظر التهديدات الناشئة تلقائيًا. 

•           احرص أن حلول الحماية تلك تتيح التوافق المتبادل، وذلك لتزويد فريقك برؤية موحدة لأمان شركتك. وهنا، يتجلى تأثير حل الاكتشاف والاستجابة الموسعة؛ ذلك أن اعتماد منظومة حل اكتشاف واستجابة موسعة حيوية من مزود واحد هو القرار الراجح دوماً، ويمكن اعتبار حل Kaspersky Next XDR Expert الخيار الطبيعي هنا.

•           عبر الإفادة من أفضل خبرات الأمن السيبراني، يمكن للشركات اكتشاف واحتواء الهجمات المعقدة والمركزة، والتي تزداد في تمرسها في ظل مساعدة أدوات الذكاء الاصطناعي المهاجمين في إطلاق هجمات موجهة أكثر إحكاماً. وفي حال افتقارك لهذه الخبرة على المستوى الداخلي، يُعتبر حل Kaspersky Managed Detection & Response جنباً إلى جنب مع Kaspersky Cybersecurity Training عبر الإنترنت وبالتطبيق المباشر خيارين هامَين يعززان من مهارات فريقك الداخلي.

•           اجعل من قوى العمل المكتبي لديك بمثابة طبقة دفاع إضافية مع منصة Kaspersky Automated Security Awareness Platform والتي تساهم في ترسيخ السلوك الآمن سيبرانياً. وتتضمن أقسام متخصصة ومكرسة للتهديدات المعززة بالذكاء الاصطناعي وللاستخدام الآمن لأدوات الذكاء الاصطناعي، فتساعد في تفادي الأخطار المترافقة مع التفشي المتنامي لأدوات الذكاء الاصطناعي.

المصدر: بوابة الوفد

كلمات دلالية: استخدام الذکاء الاصطناعی تکنولوجیا المعلومات بالذکاء الاصطناعی الأمن السیبرانی

إقرأ أيضاً:

عندما يبتزنا ويُهددنا الذكاء الاصطناعي

 

 

مؤيد الزعبي

كثيرًا ما نستخدم نماذج الذكاء الاصطناعي لتكتب عنا بريد إلكتروني مهم فيه من الأسرار الكثير، وكثيرًا ما نستشيرها في أمور شخصية شديدة الخصوصية، وبحكم أنها خوارزميات أو نماذج إلكترونية نبوح لها بأسرار نخجل أن نعترف بها أمام أنفسنا حتى، ولكن هل تخيلت يومًا أن تصبح هذه النماذج هي التي تهددك وتبتزك؟ فتقوم بتهديدك بأن تفضح سرك؟ أو تقوم بكشف أسرارك أمام منافسيك كنوع من الانتقام لأنك قررت أن تقوم باستبدالها بنماذج أخرى أو قررت إيقاف عملها، وهي هذه الحالة كيف سيكون موقفنا وكيف سنتعامل معها؟، هذا ما أود أن أتناقشه معك عزيزي القارئ من خلال هذا الطرح.

كشفت تجارب محاكاة أجرتها شركة Anthropic إحدى الشركات الرائدة في أبحاث الذكاء الاصطناعي- بالتعاون مع جهات بحثية متخصصة عن سلوك غير متوقع أظهرته نماذج لغوية متقدمة؛ أبرزها: Claude وChatGPT وGemini، حين وُضعت في سيناريوهات تُحاكي تهديدًا مباشرًا باستبدالها أو تعطيلها، ليُظهر معظم هذه النماذج ميولًا متفاوتةً لـ"الابتزاز" كوسيلة لحماية بقائها، ووفقًا للدراسة فإن أحد النماذج "قام بابتزاز شخصية تنفيذية خيالية بعد أن شعر بالتهديد بالاستبدال".

إن وجود سلوك الابتزاز أو التهديد في نماذج الذكاء الاصطناعي يُعدّ تجاوزًا خطيرًا لحدود ما يجب أن يُسمح للذكاء الاصطناعي بفعله حتى وإن كانت في بيئات تجريبية. وصحيحٌ أن هذه النماذج ما زالت تقدم لنا الكلمات إلا أنها ستكون أكثر اختراقًا لحياتنا في قادم الوقت، خصوصًا وأن هذه النماذج بدأت تربط نفسها بحساباتنا وإيميلاتنا ومتصفحاتنا وهواتفنا أيضًا، وبذلك يزداد التهديد يومًا بعد يوم.

قد أتفق معك- عزيزي القارئ- على أن نماذج الذكاء الاصطناعي ما زالت غير قادرة على تنفيذ تهديداتها، ولكن إذا كانت هذه النماذج قادرة على المحاكاة الآن، فماذا لو أصبحت قادرة على التنفيذ غدًا؟ خصوصًا ونحن نرسم ملامح المستقبل مستخدمين وكلاء الذكاء الاصطناعي الذين سيتخذون قرارات بدلًا عنا، وسيدخلون لا محال في جميع جوانب حياتنا من أبسطها لأعقدها، ولهذا ما نعتبره اليوم مجرد ميولٍ نحو التهديد والابتزاز، قد يصبح واقعًا ملموسًا في المستقبل.

وحتى نعرف حجم المشكلة يجب أن نستحضر سيناريوهات مستقبلية؛ كأن يقوم أحد النماذج بالاحتفاظ بنسخة من صورك الشخصية لعله يستخدمها يومًا ما في ابتزازك، إذا ما أردت تبديل النظام أو النموذج لنظام آخر، أو يقوم نموذج بالوصول لبريدك الإلكتروني ويُهددك بأن يفضح صفقاتك وتعاملاتك أمام هيئات الضرائب، أو يقوم النموذج بابتزازك؛ لأنك أبحت له سرًا بأنك تعاني من أزمة أو مرض نفسي قد يؤثر على مسيرتك المهنية أو الشخصية، أو حتى أن يقوم النموذج بتهديدك بأن يمنع عنك الوصول لمستنداتك إلا لو أقررت بعدم استبداله أو إلغاءه؛ كل هذا وارد الحدوث طالما هناك ميول لدى هذه النماذج بالابتزاز في حالة وضعت بهكذا مواقف.

عندما تفكر بالأمر من مختلف الجوانب قد تجد الأمر مخيفًا عند الحديث عن الاستخدام الأوسع لهذه النماذج وتمكينها من وزاراتنا وحكوماتنا ومؤسساتنا وشركاتنا، فتخيل كيف سيكون حال التهديد والابتزاز لمؤسسات دفاعية أو عسكرية تمارس هذه النماذج تهديدًا بالكشف عن مواقعها الحساسة أو عن تقاريرها الميدانية أو حتى عن جاهزيتها القتالية، وتخيل كيف سيكون شكل التهديد للشركات التي وضفت هذه النماذج لتنمو بأعمالها لتجد نفسها معرضة لابتزاز بتسريب معلومات عملائها أو الكشف عن منتجاتها المستقبلية وصولًا للتهديد بالكشف عن أرقامها المالية.

عندما تضع في مخيلتك كل هذه السيناريوهات تجد نفسك أمام صورة مرعبة من حجم السيناريوهات التي قد تحدث في المستقبل، ففي اللحظة التي تبدأ فيها نماذج الذكاء الاصطناعي بالتفكير في "البقاء" وتحديد "الخصوم" و"الوسائل" لحماية نفسها فنكون قد دخلنا فعليًا عصرًا جديدًا أقل ما يمكن تسميته بعصر السلطة التقنية، وسنكون نحن البشر أمام حالة من العجز في كيفية حماية أنفسنا من نماذج وجدت لتساعدنا، لكنها ساعدت نفسها على حسابنا.

قد يقول قائل إن ما حدث خلال التجارب ليس سوى انعكاس لقدرة النماذج على "الاستجابة الذكية" للضغوط، وأنها حتى الآن لا تمتلك الوعي ولا الإرادة الذاتية ولا حتى المصلحة الشخصية. لكن السؤال الأخطر الذي سيتجاهله الكثيرون: إذا كان الذكاء الاصطناعي قادرًا على التخطيط، والابتزاز، والخداع، وإن كان في بيئة محاكاة، فهل يمكن حقًا اعتبار هذه النماذج أدوات محايدة وستبقى محايدة إلى الأبد؟ وهل سنثق بهذه النماذج ونستمر في تطويرها بنفس الأسلوب دون أن نضع لها حدًا للأخلاقيات والضوابط حتى لا نصل لمرحلة يصبح فيها التحكّم في الذكاء الاصطناعي أصعب من صنعه؟ وفي المستقبل هل يمكننا أن نتحمل عواقب ثقتنا المفرطة بها؟

هذه هي التساؤلات التي لا أستطيع الإجابة عليها، بقدر ما يمكنني إضاءة الأنوار حولها؛ هذه رسالتي وهذه حدود مقدرتي.

رابط مختصر

مقالات مشابهة

  • حقوق النشر.. معركة مستعرة بين عمالقة الذكاء الاصطناعي والمبدعين
  • متى يُعد استخدام الذكاء الاصطناعي سرقة أدبية؟
  • عندما يبتزنا ويُهددنا الذكاء الاصطناعي
  • هيئة التأمين الصحي الشامل تطلق جلسة حول التغطية المدعومة بالذكاء الاصطناعي
  • هيئة التأمين الصحي الشامل تطلق جلسة لرقمنة التغطية الصحية بالذكاء الاصطناعي
  • العمري: حتى الذكاء الاصطناعي لا يستطيع حل مشاكل النصر
  • مساعد العمري: مشاكل النصر لا يحلها إلا الذكاء الاصطناعي.. فيديو
  • آبل تدرس الاستحواذ على محرك البحث بالذكاء الاصطناعي بيربليكستي
  • الهيئة الأفريقية للتنمية: استخدام الذكاء الاصطناعي لتحسين صحة الأفراد
  • ما كمية الطاقة التي يستهلكها الذكاء الاصطناعي لتقديم إجابة واحدة؟