أحدثت شبكة الإنترنت تحولًا جذريا في مختلف مناحي الحياة، مقدمة مزايا غير مسبوقة للأفراد والشركات، إلا أن هذا التطور صاحبه ارتفاع ملحوظ في الهجمات الإلكترونية التي تستهدف المستخدمين والأنظمة الرقمية.

وباتت البرمجيات الخبيثة تشكل تهديدًا متزايدا للحواسيب والهواتف الذكية والشبكات، حيث تستهدف سرية البيانات وسلامتها، بالإضافة إلى تأثيرها المباشر في الموارد المالية للأفراد والمؤسسات.

ولكن اكتشاف هذه البرمجيات يمثل تحديًا مستمرا في ظل التطور المستمر لأساليب المهاجمين وقدرتهم على التهرب من أنظمة الحماية التقليدية.

وفي ظل محدودية كفاءة برامج مكافحة الفيروسات التقليدية والتحليل اليدوي في التصدي لهذه التهديدات المتجددة، برز التعلم الآلي كأداة قوية لتعزيز أمن المعلومات.

كيف يعزز التعلم الآلي الأمن السيبراني؟

يعتمد التعلم الآلي على تحليل أنماط وسلوكيات الملفات المختلفة، بما في ذلك الملفات التنفيذية والبرامج النصية والمستندات والصور، لتحديد مدى خطورتها.

وتصنف خوارزمياته الملفات استنادًا إلى تشابهها مع عينات خبيثة معروفة أو انحرافها عن الأنماط الطبيعية.

كما تتمتع هذه التقنية بقدرة ذاتية على التعلم من البيانات الجديدة وتحديث نماذجها لمواكبة تطور التهديدات السيبرانية.

إعلان

ويستخدم التعلم الآلي تقنيات متعددة، تتنوع بين الأساليب الخاضعة للإشراف وغير الخاضعة للإشراف، تبعًا لنوع البيانات والمهمة المطلوبة.

وتتيح هذه التقنية للأنظمة الحاسوبية التعلم دون الحاجة إلى برمجتها، مما يجعلها تحاكي الطريقة التي يتعلم بها البشر من خلال التجربة.

ويعزز التعلم الآلي الأمن السيبراني من خلال تحليل البيانات واكتشاف الأنماط المخفية للكشف المبكر عن التهديدات الإلكترونية والمساعدة في التعرف على الأنماط التي قد لا يلاحظها البشر أو برامج مكافحة الفيروسات التقليدية.

وتعتمد هذه التقنية على تدريب الأنظمة لكي تستطيع التنبؤ بالسلوكيات الخبيثة واتخاذ قرارات استباقية لحماية الأنظمة الرقمية.

ومن خلال تحليل بيانات البرمجيات الخبيثة، تستطيع الخوارزميات تحديد أنماط وخصائص البرمجيات الخبيثة واكتشاف التهديدات الداخلية والتصرفات غير المألوفة للمستخدمين والتنبؤ بالمناطق الخطرة عبر الإنترنت وحماية البيانات المخزنة في السحابة من خلال مراقبة السلوك المشبوه.

دور التعلم الآلي في كشف البرمجيات الخبيثة

تحلل المؤسسات ملايين البيانات المرتبطة بالبنية التحتية والمستخدمين. وفي ظل الكم الهائل من البيانات، يصبح من الصعب الاعتماد على فرق الأمن التقليدية فقط.

ويأتي هنا دور التعلم الآلي، الذي يساعد فرق الأمن السيبراني في تحديد التهديدات واتخاذ الإجراءات اللازمة قبل وقوع الضرر.

وتعتمد هذه العملية على تزويد الخوارزميات ببيانات ضخمة، مما يمكنها من استنتاج الارتباطات والأنماط المخفية. وبناءً على هذه الأنماط، تتوقع الخوارزميات التهديدات وتتخذ إجراءات مناسبة.

وعادةً ما تشمل عملية التعلم الآلي جمع كميات كبيرة من البيانات وتنظيمها وتجهيزها للتحليل، واستخرج الخصائص المهمة من البيانات، وتدريب الخوارزمية على البيانات المستخرجة، واختبار أداء النموذج للتحقق من دقته وقدرته.

إعلان

وبالنظر إلى الطبيعة الديناميكية للتعلم الآلي، فإن إضافة بيانات جديدة يعزز أداء النماذج ويحسن قدرتها على كشف البرمجيات الخبيثة.

المؤسسات تحلل ملايين البيانات المرتبطة بالبنية التحتية والمستخدمين (شترستوك) تقنيات الكشف

توجد منهجيات مختلفة لاستخدام تقنيات التعلم الآلي للكشف عن البرمجيات الخبيثة، بما في ذلك:

الكشف القائم على التوقيع: يقارن ملفًا أو نظامًا بقاعدة بيانات توقيع البرمجيات الخبيثة. تكتشف هذه الطريقة البرمجيات الخبيثة المعروفة، لكنها لا تستطيع اكتشاف التهديدات الجديدة. التحليل الاستدلالي: يكتشف أنماط سلوك النظام أو التعليمات البرمجية المشبوهة. تكتشف هذه الطريقة التهديدات الجديدة، ولكنها قد تولد أيضًا نتائج إيجابية خاطئة. الكشف القائم على التعلم الآلي: تحلل الخوارزميات مجموعات بيانات ضخمة من البرمجيات الخبيثة المعروفة للعثور على أنماط البرمجيات الخبيثة وسماتها. تكتشف هذه الطريقة التهديدات المعروفة وغير المتوقعة وتقليل وقت اكتشاف البرمجيات الخبيثة وإزالتها.

وتصنف تقنيات التعلم الآلي المستخدمة في الكشف عن البرمجيات الخبيثة إلى ثلاثة أنواع رئيسية، وهي الأساليب الخاضعة للإشراف، والأساليب غير الخاضعة للإشراف، والأساليب القائمة على التعزيز.

ويمتلك كل نوع إيجابيات وسلبيات، وتعتمد الطريقة المختارة على حالة الاستخدام والبيانات المقدمة.

وغالبًا ما تُستخدم الأساليب الهجينة، التي تجمع بين الأنواع المتعددة، لتعزيز دقة ومتانة أنظمة الأمن السيبراني في اكتشاف التهديدات المتطورة والتخفيف منها.

دور التعلم الآلي في تعزيز الأمن السيبراني

يراقب التعلم الآلي سلوك الشبكة بشكل مستمر لاكتشاف أي نشاط غير طبيعي. ومن خلال تحليل كميات كبيرة من البيانات في الوقت الفعلي، فإنه يستطيع تحديد الحوادث الأمنية الحرجة، ويشمل ذلك التهديدات الداخلية، والبرمجيات الخبيثة غير المعروفة سابقًا، وانتهاكات سياسات الأمان.

إعلان

وتستطيع أنظمة التعلم الآلي التنبؤ بالمواقع الضارة عبر الإنترنت لمنع وصول المستخدمين إليها. كما تحلل أنشطة الإنترنت بشكل مستمر لاكتشاف البنية التحتية التي يستخدمها المهاجمون لشن هجمات سيبرانية جديدة أو ناشئة.

وتساعد خوارزميات التعلم الآلي في الكشف عن البرمجيات الخبيثة الجديدة غير المعروفة سابقًا، وتعتمد على تحليل خصائص وسلوك البرمجيات الخبيثة المعروفة لتحديد أي تهديد ناشئ ومنعه قبل إلحاق الضرر بالأجهزة.

ويتيح التعلم الآلي تعزيز أمان بيئات العمل السحابية عبر تحليل سلوكيات تسجيل الدخول المشبوهة، واكتشاف الأنشطة غير الاعتيادية بناءً على الموقع الجغرافي، وإجراء تحليلات متقدمة لعناوين بروتوكول الإنترنت "آي بي" (IP) من أجل تحديد المخاطر المحتملة.

وتستطيع أنظمة التعلم الآلي تحليل البيانات المشفرة دون فك تشفيرها، إذ تعتمد على دراسة أنماط حركة المرور المشفرة داخل الشبكة لتحديد السلوكيات المشبوهة، ورصد أي تهديدات مخفية داخل التشفير.

فوائد ومزايا التعلم الآلي

أصبح إدماج التعلم الآلي في أنظمة كشف البرمجيات الخبيثة خطوة أساسية لتعزيز إجراءات الأمان وتحسين الكفاءة التشغيلية، إذ تحقق الخوارزميات معدلات دقة مرتفعة في الكشف عن البرمجيات الخبيثة.

وتتيح الخوارزميات اكتشاف البرمجيات الخبيثة تلقائيًا، مما يقلل من العبء على خبراء الأمن السيبراني ويوفر الوقت والموارد.

وتتميز أنظمة التعلم الآلي بالقدرة على التكيف مع التهديدات الجديدة والتعلم من الأخطاء السابقة. وتستطيع النماذج المحدثة اكتشاف أنواع جديدة من البرمجيات الخبيثة، مما يعزز من كفاءتها في مواجهة التهديدات المتطورة.

وفيما يلي خمس تقنيات رئيسية للتعلم الآلي تعزز من قدرات الكشف عن البرمجيات الخبيثة:

استخراج الخصائص: تتيح هذه التقنية تحليل الخصائص المتعلقة بالبرمجيات الخبيثة، مثل الحجم والنوع والسلوك. التعرف على الأنماط: تتيح هذه التقنية اكتشاف الأنماط المخفية في البيانات التي قد لا يتمكن المحللون البشر من ملاحظتها. التعلم من التجربة: تتحسن الأنظمة عبر تحليل الأنماط والاتجاهات داخل مجموعات البيانات الكبيرة التي قد يغفلها المحللون البشريون. التحليل المتقدم: يتيح التحليل السريع للبيانات الضخمة اكتشاف التهديدات والاستجابة لها في الوقت الفعلي. الأتمتة: تساهم الأتمتة في تقليل العبء على خبراء الأمن السيبراني عبر أتمتة عمليات الكشف عن البرمجيات الخبيثة. إعلان

ويؤدي الجمع بين التقنيات إلى تحسين دقة وكفاءة الكشف عن البرمجيات الخبيثة. وبفضل هذه القدرات، تستطيع الخوارزميات تحديد التهديدات بسرعة وفعالية، مما يسهم في منع الهجمات الإلكترونية وتعزيز الأمان السيبراني.

تحديات التعلم الآلي

يعاني استخدام التعلم الآلي من بعض التحديات، منها تولد نتائج إيجابية كاذبة أو نتائج سلبية كاذبة، مما قد يقلل من الموثوقية والكفاءة.

كما أن هذه التقنية عرضة للهجمات المتعمدة للتلاعب بالخوارزمية أو خداعها عن طريق تعديل البيانات أو المزايا.

ومن أجل التغلب على ذلك، توجد حلول قد تساعد في تحسين دقة الخوارزمية، ويشمل ذلك استخدام الخوارزميات المتعددة والمتنوعة، واستخدام بيانات عالية الجودة، واستخدام الخوارزميات القابلة للتفسير وتمكين التدخل البشري أو التحقق عند الحاجة.

ختامًا، يوفر التعلم الآلي إمكانات كبيرة لإحداث ثورة في مجال كشف التهديدات من حيث القدرة على تحديد البرمجيات الخبيثة بسرعة ودقة.

ويعتمد نجاح التعلم الآلي في كشف البرمجيات الخبيثة على البيانات المستخدمة في تدريبه، ويمثل استخدام هذه التقنية خطوة مهمة نحو تحسين تدابير الأمن السيبراني، إلا أن البحث والتطوير المستمرين في هذا المجال ضروريان من أجل استغلال إمكاناته الكاملة والحفاظ على بيئة رقمية آمنة.

المصدر: الجزيرة

كلمات دلالية: حريات رمضان الأمن السیبرانی التعلم الآلی فی هذه التقنیة من البیانات الخبیثة ا من خلال

إقرأ أيضاً:

احتيال شركات الذكاء الاصطناعي يجب أن يتوقف

مع تقدم الذكاء الاصطناعي وتغلغله في حياتنا على نحو متزايد، يبدو من الواضح أنه من غير المحتمل أن يخلق المدينة التكنولوجية الفاضلة ومن غير المرجح أن يتسبب في محو البشرية. النتيجة الأكثر احتمالا هي مكان ما في المنتصف ــ مستقبل يتشكل من خلال الطوارئ، والحلول الوسط، وعلى جانب عظيم من الأهمية، القرارات التي نتخذها الآن حول كيفية تقييد وتوجيه تطور الذكاء الاصطناعي.

باعتبارها الرائدة عالميا في مجال الذكاء الاصطناعي، تضطلع الولايات المتحدة بدور مهم بشكل خاص في تشكيل هذا المستقبل. لكن خطة عمل الذكاء الاصطناعي التي أعلن عنها الرئيس الأمريكي دونالد ترامب مؤخرا بددت الآمال في تعزيز الإشراف الفيدرالي، فاحتضنت بدلا من ذلك نهجا داعما للنمو في تطوير التكنولوجيا. وهذا يجعل التركيز من جانب حكومات الولايات، والمستثمرين، والجمهور الأمريكي على أداة مُـساءلة أقل إخضاعا للمناقشة، ألا وهي حوكمة الشركات ضرورة أشد إلحاحا. وكما توثق الصحفية كارين هاو في كتابها «إمبراطورية الذكاء الاصطناعي»، فإن الشركات الرائدة في هذا المجال منخرطة بالفعل في المراقبة الجماعية، وهي تستغل عمالها، وتتسبب في تفاقم تغير المناخ. من عجيب المفارقات هنا أن كثيرا منها شركات منفعة عامة (PBCs)، وهي بنية حوكمة يُزعم أنها مصممة لتجنب مثل هذه الانتهاكات وحماية البشرية. ولكن من الواضح أنها لا تعمل على النحو المنشود.

كانت هيكلة شركات الذكاء الاصطناعي على أنها شركات منفعة عامة شكلا ناجحا للغاية من أشكال الغسيل الأخلاقي. فبإرسال إشارات الفضيلة إلى الهيئات التنظيمية وعامة الناس، تخلق هذه الشركات قشرة من المساءلة تسمح لها بتجنب المزيد من الرقابة الجهازية على ممارساتها اليومية، والتي تظل مبهمة وربما ضارة. على سبيل المثال، تُـعَـد xAI التي يملكها إيلون ماسك شركة منفعة عامة تتمثل مهمتها المعلنة في «فهم الكون». لكن تصرفات الشركة ــ من بناء كمبيوتر خارق مُـلَـوِّث في السر بالقرب من حي تقطنه أغلبية من السود في ممفيس بولاية تينيسي، إلى إنشاء روبوت محادثة يشيد بهتلر ــ تُظهر قدرا مزعجا بشدة من عدم الاكتراث بالشفافية، والرقابة الأخلاقية، والمجتمعات المتضررة.

تُعد شركات المنفعة العامة أداة واعدة لتمكين الشركات من خدمة الصالح العام مع السعي إلى تحقيق الربح في الوقت ذاته. لكن هذا النموذج، في هيئته الحالية ــ خاصة في ظل قانون ولاية ديلاوير، الولاية التي تتخذها معظم الشركات العامة الأمريكية مقرا لها ــ مليء بالثغرات وأدوات الإنفاذ الضعيفة، وهو بالتالي عاجز عن توفير الحواجز اللازمة لحماية تطوير الذكاء الاصطناعي. لمنع النتائج الضارة، وتحسين الرقابة، وضمان حرص الشركات على دمج المصلحة العامة في مبادئها التشغيلية، يتعين على المشرعين على مستوى الولايات، والمستثمرين، وعامة الناس المطالبة بإعادة صياغة شركات المنفعة العامة وتعزيز قدراتها. من غير الممكن تقييم الشركات أو مساءلتها في غياب أهداف واضحة، ومحددة زمنيا، وقابلة للقياس الكمي. لنتأمل هنا كيف تعتمد شركات المنفعة العامة في قطاع الذكاء الاصطناعي على بيانات منافع شاملة وغير محددة يُزعَم أنها توجه العمليات. تعلن شركة OpenAI أن هدفها هو «ضمان أن يعود الذكاء الاصطناعي العام بالفضل على البشرية جمعاء»، بينما تهدف شركة Anthropic إلى «تحقيق أعظم قدر من النتائج الإيجابية لصالح البشرية في الأمد البعيد». المقصود من هذه الطموحات النبيلة الإلهام، لكن غموضها من الممكن أن يستخدم لتبرير أي مسار عمل تقريبا ــ بما في ذلك مسارات تعرض الصالح العام للخطر. لكن قانون ولاية ديلاوير لا يُـلزِم الشركات بتفعيل منفعتها العامة من خلال معايير قابلة للقياس أو تقييمات مستقلة. ورغم أنها تطالب بتقديم تقارير كل سنتين حول أداء المنفعة، فإنها لا تلزم الشركات بإعلان النتائج. بوسع الشركات أن تفي بالتزاماتها ــ أو تهملها ــ خلف الأبواب المغلقة، دون أن يدري عامة الناس شيئا. أما عن الإنفاذ، فبوسع المساهمين نظريا رفع دعوى قضائية إذا اعتقدوا أن مجلس الإدارة فشل في دعم مهمة الشركة في مجال المنفعة العامة. لكن هذا سبيل انتصاف أجوف، لأن الأضرار الناجمة عن الذكاء الاصطناعي تكون منتشرة، وطويلة الأجل، وخارجة عن إرادة المساهمين عادة. ولا يملك أصحاب المصلحة المتضررون ــ مثل المجتمعات المهمشة والمقاولين الذين يتقاضون أجورا زهيدة ــ أي سبل عملية للطعن في المحاكم. وللاضطلاع بدور حقيقي في حوكمة الذكاء الاصطناعي، يجب أن يكون نموذج «شركات المنفعة العامة» أكثر من مجرد درع للسمعة. وهذا يعني تغيير كيفية تعريف «المنفعة العامة»، وحوكمتها، وقياسها، وحمايتها بمرور الوقت. ونظرا لغياب الرقابة الفيدرالية، يجب أن يجري إصلاح هذا الهيكل على مستوى الولايات. يجب إجبار شركات المنفعة العامة على الالتزام بأهداف واضحة، وقابلة للقياس، ومحددة زمنيا، ومكتوبة في وثائقها الإدارية، ومدعومة بسياسات داخلية، ومربوطة بمراجعات الأداء والمكافآت والتقدم الوظيفي. بالنسبة لأي شركة عاملة في مجال الذكاء الاصطناعي، من الممكن أن تشمل هذه الأهداف ضمان سلامة نماذج المؤسسات، والحد من التحيز في مخرجات النماذج، وتقليل البصمة الكربونية الناجمة عن دورات التدريب والنشر، وتنفيذ ممارسات العمل العادلة، وتدريب المهندسين ومديري المنتجات على حقوق الإنسان والأخلاقيات والتصميم التشاركي. الأهداف المحددة بوضوح، وليس التطلعات الغامضة، هي التي ستساعد الشركات على بناء الأساس للمواءمة الداخلية الجديرة بالثقة والمساءلة الخارجية. يجب أيضا إعادة تصور مجالس الإدارة وعملية الإشراف. ينبغي لمجالس الإدارة أن تضم مديرين ذوي خبرة يمكن التحقق منها في أخلاقيات الذكاء الاصطناعي، والسلامة، والأثر الاجتماعي، والاستدامة. يجب أن يكون لكل شركة مسؤول أخلاقي رئيسي يتمتع بتفويض واضح، وسلطة مستقلة، والقدرة على الوصول المباشر إلى مجلس الإدارة. ينبغي لهؤلاء المسؤولين أن يشرفوا على عمليات المراجعة الأخلاقية وأن يُمنحوا سلطة وقف أو إعادة تشكيل خطط المنتجات عند الضرورة. وأخيرا، يجب أن تكون شركات الذكاء الاصطناعي المهيكلة كمؤسسات منفعة عامة مُلـزَمة بنشر تقارير سنوية مفصلة تتضمن بيانات كاملة ومصنفة تتعلق بالسلامة والأمن، والتحيز والإنصاف، والأثر الاجتماعي والبيئي، وحوكمة البيانات. وينبغي لعمليات تدقيق مستقلة ــ يديرها خبراء في الذكاء الاصطناعي، والأخلاقيات، والعلوم البيئية، وحقوق العمال ــ أن تعكف على تقييم صحة هذه البيانات، بالإضافة إلى ممارسات الحوكمة في الشركة وتواؤمها في عموم الأمر مع أهداف المنفعة العامة.

أكدت خطة عمل ترامب للذكاء الاصطناعي على عدم رغبة إدارته في تنظيم هذا القطاع السريع الحركة. ولكن حتى في غياب الإشراف الفيدرالي، بوسع المشرعين على مستوى الولايات، والمستثمرين، وعامة الناس تعزيز حوكمة إدارة الشركات للذكاء الاصطناعي بممارسة الضغوط من أجل إصلاح نموذج شركات المنفعة العامة. يبدو أن عددا متزايدا من قادة التكنولوجيا يعتقدون أن الأخلاقيات أمر اختياري. ويجب على الأمريكيين أن يثبتوا أنهم على خطأ، وإلا فإنهم يتركون التضليل، والتفاوت بين الناس، وإساءة استخدام العمالة، وقوة الشركات غير الخاضعة للرقابة تشكل مستقبل الذكاء الاصطناعي.

كريستوفر ماركيز أستاذ إدارة الأعمال في جامعة كامبريدج ومؤلف كتاب «المستغلون: كيف تقوم الشركات بخصخصة الأرباح وتأميم التكاليف»

خدمة «بروجيكت سنديكيت»

مقالات مشابهة

  • احتيال شركات الذكاء الاصطناعي يجب أن يتوقف
  • هيئة مكافحة الاحتكار الإيطالية تحقق مع ميتا بشأن دمج الذكاء الاصطناعي في واتساب
  • الجرائم الإلكترونية تضبط 3 أشخاص احتالوا مالياً على مواطنين
  • عاجل | الجرائم الإلكترونية تضبط ثلاثة أشخاص احتالوا على مواطنين بإيهامهم بالدخول في عطاءات مقابل مبالغ مالية
  • السباق الاستخباراتي على الذكاء الاصطناعي
  • معضلة الذكاء الاصطناعي والمؤلف العلمي
  • استمراراً لسلسلة الدورات المتخصصة في الذكاء الاصطناعي… التنمية الإدارية تواصل تطوير الكوادر الحكومية في تحليل البيانات
  • مبادرات جديدة لغوغل في أفريقيا لتعزيز الذكاء الاصطناعي
  • حوارٌ مثيرٌ مع الذكاء الاصطناعي
  • الجزائر تُفعّل قوانين التعبئة العامة.. جاهزية شاملة في وجه التهديدات الاستراتيجية