يتزايد تأثير برامج الذكاء الاصطناعي على الأمن الإلكتروني، حيث يتم استخدامها لأغراض سلبية تشمل الجرائم الإلكترونية، وأخرى إيجابية لتعزيز الأمن السيبراني.

وتساعد هذه البرامج المبرمجين والمختصين في عالم البرمجة على تعزيز قدرات الاختراق وابتزاز الضحايا، فيما تساعد أيضا على تعزيز برامج الحماية والأمن لمكافحة الفيروسات والهجمات.

وأثار التبني الأخير لبرامج الذكاء الاصطناعي مخاوف كبيرة بشأن الأمن السيبراني بسبب الطرق العديدة التي يمكن للمجرمين استخدامها في هجماتهم وتحقيق الربح، وفقا لتقرير مطول نشره موقع "تالوس"، الاثنين.

وأشار التقرير أيضا إلى أن المبرمجين والعاملين لدى جهات إنفاذ القانون يمكنهم استخدام برامج الذكاء الاصطناعي لتعزيز الأمن السيبراني والتصدي للأنشطة غير المشروعة.

ولفت إلى أن العقد الماضي شهد اعتمادا متزايدا واستخداما مكثفا للتعلم الآلي (ML) والذكاء الاصطناعي (AI) من قبل العديد من الجهات والمؤسسات الحكومية والخاصة.

وفي ظل هذا التطور الهائل، تطرح تساؤلات عن كيفية استغلال المجرمين لبرامج الذكاء الاصطناعي وابتزاز الضحايا للحصول على الأموال، وأبرز السبل المتاحة لمواجهتهم.

أعمال خبيثة

وتساعد هذه البرامج المستخدمين على إنشاء نصوص برمجية وتعديل الصور، وعلى تبسيط عمليات المجرمين، وجعلها أكثر كفاءة وتطورا وقابلية للتوسع مع السماح لهم بالتهرب من الاكتشاف.

وتشمل الأعمال الخبيثة للمجرمين نشر المعلومات المضللة، وتعديل الصور بهدف الابتزاز الجنسي، وإنشاء برامج ضارة وخبيثة، وفقا لمتخصصين بقطاع التكنولوجيا والأمن السيبراني.

كيف يساعد الذكاء الاصطناعي على "الابتزاز الجنسي"؟ يسهل التقدم السريع في تقنيات الذكاء الاصطناعي عمل المحتالين لابتزاز ضحاياهم، بمن فيهم الأطفال، من خلال التلاعب بالصور البريئة وتحويلها إلى محتوى إباحي مزيف، وفق ما ينقل تقرير من موقع "أكسيوس" عن خبراء.

ويسهل التقدم السريع في تقنيات الذكاء الاصطناعي عمل المحتالين لابتزاز ضحاياهم، بمن فيهم الأطفال، من خلال التلاعب بالصور البريئة وتحويلها إلى محتوى إباحي مزيف، وفق لما نقله تقرير لموقع "أكسيوس" عن خبراء نشر في يونيو الماضي.

ويرى الخبير التكنولوجي، سلوم الدحداح، أن المجرمين يستغلون برامج الذكاء الاصطناعي لمساعدتهم في صناعة برامج ضارة وخبيثة.

ويقول في حديثه لموقع "الحرة" إن "المجرمين يستغلون الذكاء الاصطناعي لكتابة برامج الفدية، التي تشكل خطرا، حيث يقومون بالاستيلاء على معلومات معينة ويطلبون المال مقابل فك التشفير عنها، أو يقومون بحذفها".

وأضاف أن "هناك من يقوم أيضا باستغلال صور العائلات، وتركيبها وتعديلها، لابتزاز الضحايا جنسيا أو مقابل الحصول على المال، بحيث أنهم يقومون بتغيير الخلفية مثلا، بحيث تصبح الصورة غير واقعية".

التصدي للجرائم الإلكترونية

وفيما يتعلق بالتأثير الإيجابي للذكاء الاصطناعي على الأمن السيبراني، فإنه يساعد في مواجهة الأنشطة غير المشروعة، من خلال تطوير أدوات وتكتيكات واستراتيجيات جديدة لتحليل البيانات، والتنبؤ بالهجمات، وفقا لتقرير تالوس.

وتساعد هذه البرامج على تحديد واكتشاف التهديدات والوقاية منها، بالإضافة إلى إثراء التحليلات التنبؤية.

ويقول الدحداح، إنه "للحد من الجرائم الإلكترونية، يجب على سبيل المثال تعزيز آليات التحقق من الصور، بحيث أن برامج الذكاء الاصطناعي قبل استقبال أو قبول أي صورة يجب أن تتحقق من هوية المستخدم ومن أصحابها (الصور) الحقيقيين".

وتابع "توجد اليوم برامج للتحقق من صحة الصور الفوتوغرافية، وتمييزها عن الصورة المزيفة أو المعدلة".

تطورات مبهرة

وشهدت تقنيات الذكاء الاصطناعي في الآونة الأخيرة تطورات مبهرة جعلت الصور التي تنتجها تبدو شديدة الواقعية، ولاقت رواجا واسعا على مواقع التواصل الاجتماعي، مما أثار تساؤلات بشأن سبل كشفها، وفقا لفرانس برس.

وألمحت الوكالة نقلا عن خبراء إلى أنه توجد طرق لتمييز الصور الحقيقية عن تلك المزيفة.

وتتيح بعض برمجيات الذكاء الاصطناعي، مثل "دال-إي"، "ميدجورني" و"ستايبل ديفيوجن" و"كرايون"، توليد صور بمجرد إدخال بعض الكلمات المفتاحية باللغة الإنكليزية مثل (رائد فضاء يركب حصانا على كوكب المريخ)، وذلك باستخدام قواعد بيانات ضخمة.

تمييز الصور

لكن كيف يمكن أن نميز هذه الصور؟ بعض مستخدمي مواقع التواصل يلجؤون إلى تطبيقات الذكاء الاصطناعي لإنتاج أعمال فنية أو صور على سبيل الفكاهة، لكن آخرين يستخدمون هذه الأدوات لإنتاج صور مرتبطة بأحداث سياسية.

من بين هذه الصور الرائجة عبر مواقع التواصل الاجتماعي واحدة تعود للقاء الرئيس الصيني، شي جين بينغ، بنظيره الروسي، فلاديمير بوتين، في 20 مارس 2023، ومجموعة أخرى لمشاهد متخيلة تظهر الرئيس الفرنسي إيمانويل ماكرون يجمع النفايات.

وغالبا ما يعمد صانعو هذه الصور للإشارة إلى أنها نتاج برامج ذكاء اصطناعي، لكنها سرعان ما تنتشر خارج سياقها، ويصدق البعض أنها حقيقية.

وهناك أدوات عدة لكشف حقيقة هذه الصور، وأخرى قيد التطوير، إلا أن النتائج التي تقدمها ليست حاسمة، وقد تعطي نتائج غير دقيقة، بحسب تجارب قام بها صحفيو فرانس برس.

كيف تعرف إن كانت الصورة حقيقة؟.. أم أنتجها برنامج ذكاء اصطناعيّ؟ شهدت تقنيات الذكاء الاصطناعي في الآونة الأخيرة تطوّرات مبهرة جعلت الصور التي تنتجها تبدو شديدة الواقعيّة ولاقت رواجاً واسعاً على مواقع التواصل الاجتماعي، ما أثار تساؤلات حول سبل كشفها. 

ويشرح ديفيد فيشينغر، المهندس المتخصص في الذكاء الاصطناعي في جامعة فيينا للتكنولوجيا لفرانس برس، أن عمل الذكاء الاصطناعي لا يقوم على مجرد اقتطاع أجزاء من صور لإعادة تركيبها، إذ "يلجأ إلى ملايين بل مليارات الصور لاستخراج بيانات منها، ثم يعيد استخدامها لتوليد صورة جديدة تماما".

وبدوره يوضح، فينسنت تيراسي، أحد مؤسسي شركة Draft&Goal الناشئة التي تطور أداة خاصة بالجامعات، تكشف المحتوى المنتج عبر الذكاء الاصطناعي، أن برامج الذكاء الاصطناعي تخلط الصور المتاحة لها في قاعدة البيانات ثم تفككها لتعيد بناء مشهد جديد تماما، لا يمكن تتبع العناصر المستخدمة في صناعته.

ولهذه الأسباب لا يمكن لمنصات كشف الذكاء الاصطناعي أن تصل لنتائج حاسمة في هذه المرحلة.

لكن ماذا عن البيانات الوصفيّة (Metadata) التي تعتبر بطاقة تعريفية للصورة ويمكن أن تتضمن معلومات عن أصلها؟

"للأسف لا يمكن الاعتماد على هذه البيانات لأنها تحذف مباشرة عند تحميل الصورة على مواقع التواصل"، بهذه العبارة تجيب الأستاذة في جامعة فريديريك -2 في نابولي والمتخصصة في الذكاء الاصطناعي، أناليزا فيردوليفا، على سؤال فرانس برس.

وينصح خبراء بـ"العودة إلى مصدر الصورة، وتحليلها والبحث عن علامة مائية (ووتر مارك)، والتدقيق في نقاط الصورة (pixels)، والبحث عن تشوهات، والنظر إلى الخلفية".

وبالإضافة إلى كل ذلك يمكن أن تتضمن الصور المولّدة باستخدام الذكاء الاصطناعي عناصر قد لا تكون مشوهة إلا أنها تشكل بوجودها خطأ منطقيا، لذلك يجب اتباع المنطق السليم عند التدقيق في صورة موضع شك.

المصدر: الحرة

كلمات دلالية: تقنیات الذکاء الاصطناعی برامج الذکاء الاصطناعی الأمن السیبرانی مواقع التواصل هذه الصور إلى أن

إقرأ أيضاً:

احتيال شركات الذكاء الاصطناعي يجب أن يتوقف

مع تقدم الذكاء الاصطناعي وتغلغله في حياتنا على نحو متزايد، يبدو من الواضح أنه من غير المحتمل أن يخلق المدينة التكنولوجية الفاضلة ومن غير المرجح أن يتسبب في محو البشرية. النتيجة الأكثر احتمالا هي مكان ما في المنتصف ــ مستقبل يتشكل من خلال الطوارئ، والحلول الوسط، وعلى جانب عظيم من الأهمية، القرارات التي نتخذها الآن حول كيفية تقييد وتوجيه تطور الذكاء الاصطناعي.

باعتبارها الرائدة عالميا في مجال الذكاء الاصطناعي، تضطلع الولايات المتحدة بدور مهم بشكل خاص في تشكيل هذا المستقبل. لكن خطة عمل الذكاء الاصطناعي التي أعلن عنها الرئيس الأمريكي دونالد ترامب مؤخرا بددت الآمال في تعزيز الإشراف الفيدرالي، فاحتضنت بدلا من ذلك نهجا داعما للنمو في تطوير التكنولوجيا. وهذا يجعل التركيز من جانب حكومات الولايات، والمستثمرين، والجمهور الأمريكي على أداة مُـساءلة أقل إخضاعا للمناقشة، ألا وهي حوكمة الشركات ضرورة أشد إلحاحا. وكما توثق الصحفية كارين هاو في كتابها «إمبراطورية الذكاء الاصطناعي»، فإن الشركات الرائدة في هذا المجال منخرطة بالفعل في المراقبة الجماعية، وهي تستغل عمالها، وتتسبب في تفاقم تغير المناخ. من عجيب المفارقات هنا أن كثيرا منها شركات منفعة عامة (PBCs)، وهي بنية حوكمة يُزعم أنها مصممة لتجنب مثل هذه الانتهاكات وحماية البشرية. ولكن من الواضح أنها لا تعمل على النحو المنشود.

كانت هيكلة شركات الذكاء الاصطناعي على أنها شركات منفعة عامة شكلا ناجحا للغاية من أشكال الغسيل الأخلاقي. فبإرسال إشارات الفضيلة إلى الهيئات التنظيمية وعامة الناس، تخلق هذه الشركات قشرة من المساءلة تسمح لها بتجنب المزيد من الرقابة الجهازية على ممارساتها اليومية، والتي تظل مبهمة وربما ضارة. على سبيل المثال، تُـعَـد xAI التي يملكها إيلون ماسك شركة منفعة عامة تتمثل مهمتها المعلنة في «فهم الكون». لكن تصرفات الشركة ــ من بناء كمبيوتر خارق مُـلَـوِّث في السر بالقرب من حي تقطنه أغلبية من السود في ممفيس بولاية تينيسي، إلى إنشاء روبوت محادثة يشيد بهتلر ــ تُظهر قدرا مزعجا بشدة من عدم الاكتراث بالشفافية، والرقابة الأخلاقية، والمجتمعات المتضررة.

تُعد شركات المنفعة العامة أداة واعدة لتمكين الشركات من خدمة الصالح العام مع السعي إلى تحقيق الربح في الوقت ذاته. لكن هذا النموذج، في هيئته الحالية ــ خاصة في ظل قانون ولاية ديلاوير، الولاية التي تتخذها معظم الشركات العامة الأمريكية مقرا لها ــ مليء بالثغرات وأدوات الإنفاذ الضعيفة، وهو بالتالي عاجز عن توفير الحواجز اللازمة لحماية تطوير الذكاء الاصطناعي. لمنع النتائج الضارة، وتحسين الرقابة، وضمان حرص الشركات على دمج المصلحة العامة في مبادئها التشغيلية، يتعين على المشرعين على مستوى الولايات، والمستثمرين، وعامة الناس المطالبة بإعادة صياغة شركات المنفعة العامة وتعزيز قدراتها. من غير الممكن تقييم الشركات أو مساءلتها في غياب أهداف واضحة، ومحددة زمنيا، وقابلة للقياس الكمي. لنتأمل هنا كيف تعتمد شركات المنفعة العامة في قطاع الذكاء الاصطناعي على بيانات منافع شاملة وغير محددة يُزعَم أنها توجه العمليات. تعلن شركة OpenAI أن هدفها هو «ضمان أن يعود الذكاء الاصطناعي العام بالفضل على البشرية جمعاء»، بينما تهدف شركة Anthropic إلى «تحقيق أعظم قدر من النتائج الإيجابية لصالح البشرية في الأمد البعيد». المقصود من هذه الطموحات النبيلة الإلهام، لكن غموضها من الممكن أن يستخدم لتبرير أي مسار عمل تقريبا ــ بما في ذلك مسارات تعرض الصالح العام للخطر. لكن قانون ولاية ديلاوير لا يُـلزِم الشركات بتفعيل منفعتها العامة من خلال معايير قابلة للقياس أو تقييمات مستقلة. ورغم أنها تطالب بتقديم تقارير كل سنتين حول أداء المنفعة، فإنها لا تلزم الشركات بإعلان النتائج. بوسع الشركات أن تفي بالتزاماتها ــ أو تهملها ــ خلف الأبواب المغلقة، دون أن يدري عامة الناس شيئا. أما عن الإنفاذ، فبوسع المساهمين نظريا رفع دعوى قضائية إذا اعتقدوا أن مجلس الإدارة فشل في دعم مهمة الشركة في مجال المنفعة العامة. لكن هذا سبيل انتصاف أجوف، لأن الأضرار الناجمة عن الذكاء الاصطناعي تكون منتشرة، وطويلة الأجل، وخارجة عن إرادة المساهمين عادة. ولا يملك أصحاب المصلحة المتضررون ــ مثل المجتمعات المهمشة والمقاولين الذين يتقاضون أجورا زهيدة ــ أي سبل عملية للطعن في المحاكم. وللاضطلاع بدور حقيقي في حوكمة الذكاء الاصطناعي، يجب أن يكون نموذج «شركات المنفعة العامة» أكثر من مجرد درع للسمعة. وهذا يعني تغيير كيفية تعريف «المنفعة العامة»، وحوكمتها، وقياسها، وحمايتها بمرور الوقت. ونظرا لغياب الرقابة الفيدرالية، يجب أن يجري إصلاح هذا الهيكل على مستوى الولايات. يجب إجبار شركات المنفعة العامة على الالتزام بأهداف واضحة، وقابلة للقياس، ومحددة زمنيا، ومكتوبة في وثائقها الإدارية، ومدعومة بسياسات داخلية، ومربوطة بمراجعات الأداء والمكافآت والتقدم الوظيفي. بالنسبة لأي شركة عاملة في مجال الذكاء الاصطناعي، من الممكن أن تشمل هذه الأهداف ضمان سلامة نماذج المؤسسات، والحد من التحيز في مخرجات النماذج، وتقليل البصمة الكربونية الناجمة عن دورات التدريب والنشر، وتنفيذ ممارسات العمل العادلة، وتدريب المهندسين ومديري المنتجات على حقوق الإنسان والأخلاقيات والتصميم التشاركي. الأهداف المحددة بوضوح، وليس التطلعات الغامضة، هي التي ستساعد الشركات على بناء الأساس للمواءمة الداخلية الجديرة بالثقة والمساءلة الخارجية. يجب أيضا إعادة تصور مجالس الإدارة وعملية الإشراف. ينبغي لمجالس الإدارة أن تضم مديرين ذوي خبرة يمكن التحقق منها في أخلاقيات الذكاء الاصطناعي، والسلامة، والأثر الاجتماعي، والاستدامة. يجب أن يكون لكل شركة مسؤول أخلاقي رئيسي يتمتع بتفويض واضح، وسلطة مستقلة، والقدرة على الوصول المباشر إلى مجلس الإدارة. ينبغي لهؤلاء المسؤولين أن يشرفوا على عمليات المراجعة الأخلاقية وأن يُمنحوا سلطة وقف أو إعادة تشكيل خطط المنتجات عند الضرورة. وأخيرا، يجب أن تكون شركات الذكاء الاصطناعي المهيكلة كمؤسسات منفعة عامة مُلـزَمة بنشر تقارير سنوية مفصلة تتضمن بيانات كاملة ومصنفة تتعلق بالسلامة والأمن، والتحيز والإنصاف، والأثر الاجتماعي والبيئي، وحوكمة البيانات. وينبغي لعمليات تدقيق مستقلة ــ يديرها خبراء في الذكاء الاصطناعي، والأخلاقيات، والعلوم البيئية، وحقوق العمال ــ أن تعكف على تقييم صحة هذه البيانات، بالإضافة إلى ممارسات الحوكمة في الشركة وتواؤمها في عموم الأمر مع أهداف المنفعة العامة.

أكدت خطة عمل ترامب للذكاء الاصطناعي على عدم رغبة إدارته في تنظيم هذا القطاع السريع الحركة. ولكن حتى في غياب الإشراف الفيدرالي، بوسع المشرعين على مستوى الولايات، والمستثمرين، وعامة الناس تعزيز حوكمة إدارة الشركات للذكاء الاصطناعي بممارسة الضغوط من أجل إصلاح نموذج شركات المنفعة العامة. يبدو أن عددا متزايدا من قادة التكنولوجيا يعتقدون أن الأخلاقيات أمر اختياري. ويجب على الأمريكيين أن يثبتوا أنهم على خطأ، وإلا فإنهم يتركون التضليل، والتفاوت بين الناس، وإساءة استخدام العمالة، وقوة الشركات غير الخاضعة للرقابة تشكل مستقبل الذكاء الاصطناعي.

كريستوفر ماركيز أستاذ إدارة الأعمال في جامعة كامبريدج ومؤلف كتاب «المستغلون: كيف تقوم الشركات بخصخصة الأرباح وتأميم التكاليف»

خدمة «بروجيكت سنديكيت»

مقالات مشابهة

  • الأمن السيبراني يحذر من ثغرات أمنية في منتجات شركة Apple
  • احتيال شركات الذكاء الاصطناعي يجب أن يتوقف
  • الفضيحة ليست في الصورة.. بل في غياب القانون
  • السباق الاستخباراتي على الذكاء الاصطناعي
  • مباحثات سورية أردنية لتعزيز التعاون في مجال الأمن السيبراني
  • وزير الاتصالات السوري يزور الأردن لتعزيز التعاون في الأمن السيبراني
  • معضلة الذكاء الاصطناعي والمؤلف العلمي
  • «أبوظبي العالمي» يصدر إطار عمل لإدارة مخاطر الأمن السيبراني
  • ندوة توعوية بدمياط حول الأمن السيبراني وتطبيق MY NTR
  • Google Photos تستعد لإطلاق أداة جديدة لتحرير الصور باستخدام الذكاء الاصطناعي