يشرح خبراء في الأمن السيبراني لوكالة فرانس برس أنّ أدوات الذكاء الاصطناعي التي أصبحت قادرة راهنا على إنتاج نصوص وصور ومقاطع فيديو بشكل فوري تجعل عمليات الاحتيال معقدة أكثر، داعين مستخدمي الإنترنت إلى توخي الحذر.

من عملية الاحتيال التي حظيت بتغطية إعلامية كبيرة لامرأة فرنسية دفعت 830 ألف يورو لشخص ادعى أنه براد بيت، وصولا إلى مجموعات تبرعات وهمية لضحايا حرائق لوس أنجليس، أظهرت الأسابيع الأخيرة أننا جميعا "أفرادا وشركات نشكل أهدافا للهجمات الإلكترونية"، بحسب أرنود لومير من شركة "اف 5" الأميركية المتخصصة بالأمن السيبراني.

في فرنسا، تم تسجيل أكثر من 130 ألف عملية احتيال عبر الإنترنت في العام 2023 بحسب بيانات وزارة الداخلية، التي تشير إلى زيادة بنسبة 8% سنويا في المتوسط بالجرائم "الرقمية" المتعلقة بجرائم الملكية منذ العام 2016.

أحد أكثر أشكال عمليات الاحتيال عبر الإنترنت شهرة هو "التصيد الاحتيالي"، أي إرسال رسائل بالبريد إلكتروني أو رسائل نصية قصيرة تحت ادعاءات كاذبة تحضّ المستخدمين على النقر على رابط احتيالي ومشاركة البيانات الشخصية.

تجعل روبوتات المحادثة المهاجمين يوفرون الوقت وتتيح لهم إعداد رسائلهم الكاذبة بشكل أفضل، وفق لومير.

إذا كان المحتال يجهل تفاصيل لغة معيّنة يستخدم الذكاء الاصطناعي التوليدي لكتابة بريده الإلكتروني، "فسيخفي تماما الأدلة" كالأخطاء الإملائية والنحوية، على قول الخبير.

رؤساء شركات مزيّفون ليست برامج توليد النصوص سوى غيض من فيض.

يمكن لنماذج الذكاء الاصطناعي "الاستفادة من كل البيانات التي سُرقت خلال السنوات الأخيرة لأتمتة إنشاء عمليات احتيال مخصصة جدا"، بحسب ستيف غروبمان، المدير الفني لشركة "مكافي" McAfee المتخصصة في برامج الأمان.

وبدل الاكتفاء بمكاسب صغيرة وسريعة، يسعى المهاجمون غالبا إلى كسب ثقة بعض الموظفين داخل الشركات المستهدفة.

إذا وقع موظف في الفخ، ينتظر المجرمون "حتى يصبح هذا الشخص مؤثرا جدا أو تسنح فرصة جيّدة لابتزازه من أجل الأموال" قبل استغلال هذا التواصل، على قول مارتن كريمر، من شركة "نوو بي 4" KnowBe4 الأميركية للتدريب على الأمن السيبراني.

وفيفبراير 2024، حصل محتالون على 26 مليون يورو من شركة متعددة الجنسية في هونغ كونغ.

وقالت السلطات إن أحد الموظفين الماليين اعتقد أنه كان في مكالمة جماعية عبر الفيديو مع الرئيس التنفيذي للشركة وموظفين آخرين، إلا أنّ هؤلاء كانوا صورا متحركة مفبركة بتقنية "التزييف العميق".

يحذر ستيف غروبمان الذي يؤكد أن باحثا في شركة "مكافي" تمكن من استبدال وجهه بوجه النجم الهوليوودي توم كروز بأقل من 5 يورو، أنّ "أحدث جيل من برامج التزييف العميق وصل إلى نقطة لا يستطيع فيها أحد تقريبا التمييز بين الصورة الفعلية والصورة المولّدة بواسطة الذكاء الاصطناعي".

- "كلمة مفتاح" - يقول لومير إنّ التأكد من هوية المحاور عبر الإنترنت، "يحتاج نوعا ما إلى كلمة مفتاح".

وتتمثل إحدى النصائح الأخرى بالطلب من أحد المحاورين عبر الفيديو تحريك الكاميرا لإظهار محيطه، وهو ما يصعب على الذكاء الاصطناعي إنجازه راهنا.

أصبحت عمليات الاحتيال عبر الإنترنت مجالا مربحا، "فعلى غرار قطاعات أخرى، ثمة سلاسل توريد ونظام كامل لدعمها"، على ما يلاحظ الخبير في "مكافي".

على الرغم من أن عددا كبيرا من عمليات الشرطة قوضت شبكات معيّنة، مثل شبكة "لوكبيت"، وهي إحدى مجموعات الجرائم الالكترونية الرئيسية في العالم والتي تم تفكيكها في أوائل عام 2024، بات هذا النوع من الجرائم الإلكترونية منظما واحترافيا.

ولا يقلق تطوير أدوات الذكاء الاصطناعي الجديدة مارتن كريمر بشكل كبير.ويقول "يمكننا استخدام الذكاء الاصطناعي في الهجوم كما في الدفاع".

وتبقى الحماية الأساسية لمستخدم الإنترنت ضد عمليات الاحتيال هذه تظل، يقظته.

المصدر: لجريدة عمان

كلمات دلالية: الذکاء الاصطناعی عملیات الاحتیال عبر الإنترنت

إقرأ أيضاً:

الذكاء الاصطناعي يساعد الأطباء في تحليل الصور الطبية

برز الذكاء الاصطناعي، منذ ظهوره، كأداة فعّالة لتحليل الصور الطبية. وبفضل التطورات في مجال الحوسبة ومجموعات البيانات الطبية الضخمة التي يُمكن للذكاء الاصطناعي التعلّم منها، فقد أثبت جدواه في قراءة وتحليل الأنماط في صور الأشعة السينية، والتصوير بالرنين المغناطيسي، والتصوير المقطعي المحوسب، مما يُمكّن الأطباء من اتخاذ قرارات أفضل وأسرع، لا سيما في علاج وتشخيص الأمراض الخطيرة كالسرطان. في بعض الحالات، تُقدّم أدوات الذكاء الاصطناعي هذه مزايا تفوق حتى نظيراتها البشرية.

يقول أونور أسان، الأستاذ المشارك في معهد ستيفنز للتكنولوجيا في الولايات المتحدة، والذي يركز بحثه على التفاعل بين الإنسان والحاسوب في الرعاية الصحية "تستطيع أنظمة الذكاء الاصطناعي معالجة آلاف الصور بسرعة وتقديم تنبؤات أسرع بكثير من المُراجعين البشريين. وعلى عكس البشر، لا يتعب الذكاء الاصطناعي ولا يفقد تركيزه بمرور الوقت".

مع ذلك، ينظر العديد من الأطباء إلى الذكاء الاصطناعي بشيء من عدم الثقة، ويرجع ذلك في الغالب إلى عدم معرفتهم بكيفية وصوله إلى قراراته، وهي مشكلة تُعرف باسم "مشكلة الصندوق الأسود".

يقول أسان "عندما لا يعرف الأطباء كيف تُولّد أنظمة الذكاء الاصطناعي تنبؤاتها، تقلّ ثقتهم بها. لذا، أردنا معرفة ما إذا كان تقديم شروحات إضافية يُفيد الأطباء، وكيف تؤثر درجات التفسير المختلفة للذكاء الاصطناعي على دقة التشخيص، وكذلك على الثقة في النظام".

بالتعاون مع طالبة الدكتوراه أوليا رضائيان والأستاذ المساعد ألب أرسلان إمراه بايراك في جامعة ليهاي في ولاية بنسيلفانيا الأميركية، أجرى أسان دراسة شملت 28 طبيبًا متخصصًا في الأورام والأشعة، استخدموا الذكاء الاصطناعي لتحليل صور سرطان الثدي. كما زُوّد الأطباء بمستويات مختلفة من الشروح لتقييمات أداة الذكاء الاصطناعي. في النهاية، أجاب المشاركون على سلسلة من الأسئلة المصممة لقياس ثقتهم في التقييم الذي يُولّده الذكاء الاصطناعي ومدى صعوبة المهمة.

وجد الفريق أن الذكاء الاصطناعي حسّن دقة التشخيص لدى الأطباء مقارنةً بالمجموعة الضابطة، ولكن كانت هناك بعض الملاحظات المهمة.
اقرأ أيضا... مؤسسات تستخدم الذكاء الاصطناعي لأعمال معقدة ومتعددة الخطوات

كشفت الدراسة أن تقديم شروحات أكثر تفصيلًا لا يُؤدي بالضرورة إلى زيادة الثقة.

أخبار ذات صلة "أوبن إيه آي" تطلق نموذج ذكاء اصطناعي جديدا الذكاء الاصطناعي النووي يُحدث نقلة في إدارة قطاع الطاقة

يقول أسان "وجدنا أن زيادة التفسير لا تعني بالضرورة زيادة الثقة". ذلك لأن وضع تفسيرات إضافية أو أكثر تعقيدًا يتطلب من الأطباء معالجة معلومات إضافية، مما يستنزف وقتهم وتركيزهم بعيدًا عن تحليل الصور. وعندما تكون التفسيرات أكثر تفصيلًا، يستغرق الأطباء وقتًا أطول لاتخاذ القرارات، مما يقلل من أدائهم العام.

يوضح أسان "معالجة المزيد من المعلومات تزيد من العبء المعرفي على الأطباء، وتزيد أيضًا من احتمال ارتكابهم للأخطاء، وربما إلحاق الضرر بالمريض. لا نريد زيادة العبء المعرفي على المستخدمين بإضافة المزيد من المهام".

كما وجدت أبحاث أسان أنه في بعض الحالات، يثق الأطباء بالذكاء الاصطناعي ثقةً مفرطة، مما قد يؤدي إلى إغفال معلومات حيوية في الصور، وبالتالي إلحاق الضرر بالمريض.

ويضيف أسان "إذا لم يُصمم نظام الذكاء الاصطناعي جيدًا، وارتكب بعض الأخطاء بينما يثق به المستخدمون ثقةً كبيرة، فقد يطور بعض الأطباء ثقةً عمياء، معتقدين أن كل ما يقترحه الذكاء الاصطناعي صحيح، ولا يدققون في النتائج بما فيه الكفاية".
قدّم الفريق نتائجه في دراستين حديثتين: الأولى بعنوان "تأثير تفسيرات الذكاء الاصطناعي على ثقة الأطباء ودقة التشخيص في سرطان الثدي"، والثانية بعنوان "قابلية التفسير وثقة الذكاء الاصطناعي في أنظمة دعم القرار السريري: تأثيراتها على الثقة والأداء التشخيصي والعبء المعرفي في رعاية سرطان الثدي".

يعتقد أسان أن الذكاء الاصطناعي سيظل مساعدًا قيّمًا للأطباء في تفسير الصور الطبية، ولكن يجب تصميم هذه الأنظمة بعناية.
ويقول "تشير نتائجنا إلى ضرورة توخي المصممين الحذر عند دمج التفسيرات في أنظمة الذكاء الاصطناعي"، حتى لا يصبح استخدامها معقدا. ويضيف أن التدريب المناسب سيكون ضروريًا للمستخدمين، إذ ستظل الرقابة البشرية لازمة.
وأكد "ينبغي أن يتلقى الأطباء، الذين يستخدمون الذكاء الاصطناعي، تدريبًا يركز على تفسير مخرجات الذكاء الاصطناعي وليس مجرد الوثوق بها".

ويشير أسان إلى أنه في نهاية المطاف، يجب تحقيق توازن جيد بين سهولة استخدام أنظمة الذكاء الاصطناعي وفائدتها.

ويؤكد الباحث "يُشير البحث إلى وجود معيارين أساسيين لاستخدام أي شكل من أشكال التكنولوجيا، وهما: الفائدة المتوقعة وسهولة الاستخدام المتوقعة. فإذا اعتقد الأطباء أن هذه الأداة مفيدة في أداء عملهم، وسهلة الاستخدام، فسوف يستخدمونها".
مصطفى أوفى (أبوظبي)

مقالات مشابهة

  • هل يهدد الذكاء الاصطناعي التعليم والجامعات ؟
  • أين تستثمر في الذكاء الاصطناعي خلال 2026؟
  • بيتر روف: التطورات العسكرية المتسارعة في أوكرانيا تجعل الأوضاع أكثر تعقيدا
  • كيف تحمي نفسك من أدوات الذكاء الاصطناعي التي تجمع بياناتك الشخصية (فيديو)
  • أوبن أيه آي تطلق نموذج الذكاء الاصطناعي GPT-5.2 بعد تحسينات واسعة
  • بقيادة ترمب.. تشكيل تحالف دولي لمواجهة الهيمنة الصينية في الذكاء الاصطناعي
  • الذكاء الاصطناعي يساعد الأطباء في تحليل الصور الطبية
  • سايمون شيمانسكي رئيس قسم النمو في شركة إكس تي بي العالمية: الذكاء الاصطناعي شريك ومساعد في الرحلة المالية وعملية الاستثمار
  • أبرز أدوات الذكاء الاصطناعي لتحسين تجربة التسوق عبر الإنترنت
  • تحذير من ضعف دقة الذكاء الاصطناعي لقياس النبض عند ارتفاعه