قال المهندس وليد حجاج خبير أمن المعلومات إن الإنترنت المظلم، هو نوع له أدواته الخاصة وطرقه الخاصة في التعامل، وشكله الخاص، وتكون أسماء المواقع  غير منطوقة وعبارة عن حروف وأرقام، وتكون آخرها .tor وهي اختصار لكلمة ذا اونينوو روتر (راوتر) .

كيف يستخدم الذكاء الاصطناعي في ارتكاب الجرائم السيبرانية على الإنترنت المظلم كاسبرسكي تقدم اتجاهات سوق الإنترنت المظلم في 2024

وأضاف خبير أمن المعلومات خلال  لقاء  مع الإعلامية إنجي أنور في برنامج مصر جديدة المذاع  على قناة etc أن الشخص الموجود في الإنترنت المظلم لا يمكن التعرف على مكان اقامته، ولا نوع “الاي تي” المستخدم، ولا يمكن تحديد هويته وبالتالي لا يمكن تتبعه، فضلا عن أن كل الموجودين في الإنترنت المظلم لا يعرفون الاسم الحقيقي لبعضهم فالجميع يستخدم الاسماء المستعارة، العملات التي تستخدم لا  تكون صريحة بالأموال ولكن من خلال العملات الرقمية، حتى لا يعرف من المرسل، ومن المستلم،  كل ما يمكن تخيله عن الأفعال السيئة وموجودة على الإنترنت المظلم.

وأوضح خبير أمن المعلومات أن غرف الإنترنت المظلم يتم فيها كل شئ، اغتصاب، امور غير شرعية، علاقات جنسية أو شاذة،  تعذيب، معقبا: “حسب التذكرة اللي الشخص حاجزها هل هو مشاهد فقط، ام يمكنه المشاركة وابداء رغباته”

كشفت خدمة Digital Footprint Intelligence من كاسبرسكي على ما يقرب من 3 آلاف منشور على الإنترنت المظلم يناقش استخدام ChatGPT وغيره من النماذج اللغوية الكبيرة لإجراء الأنشطة غير القانونية. حيث تستكشف مصادر التهديد مخططات مختلفة، بدءاً من إنشاء بدائل خبيثة لروبوت المحادثة الشهير وحتى كسر حماية (jailbreak) النسخة الأصلية من الروبوت وغيرها. هذا إضافة إلى امتلاء قنوات تواصل الإنترنت المظلم بحسابات ChatGPT مسروقة وخدمات تعرض إنشاءها التلقائي بكميات هائلة، لتصل بذلك إلى 3 آلاف منشور آخر. 
واكتشفت خدمة Kaspersky Digital Footprint Intelligence في عام 2023 ما يقرب من 3 آلاف منشور على الإنترنت المظلم يناقشون استخدام ChatGPT لأغراض غير قانونية أو يتحدثون عن الأدوات التي تعتمد على تقنيات الذكاء الاصطناعي. حيث بلغ عدد هذه النقاشات ذروته في مارس من ذلك العام، إلا أن النقاشات استمرت حتى بعد مارس.  


 

شرحت «أليسا كوليشينكو»، محللة معلومات البصمة الرقمية في كاسبرسكي حول هذا الموضوع قائلة: «تستكشف مصادر التهديد مخططات مختلفة لاستخدام ChatGPT والذكاء الاصطناعي بنشاط. وغالباً ما تتضمن الموضوعات تطوير البرمجيات الخبيثة وأنواع أخرى من الاستخدام غير المشروع للنماذج اللغوية، مثل معالجة بيانات المستخدمين المسروقة، وتحليل ملفات الأجهزة المصابة، وغيرها. أدت شعبية أدوات الذكاء الاصطناعي إلى دمج استجابات ChatGPT الآلية أو ما يعادلها في بعض منتديات المجرمين السيبرانيين. بالإضافة إلى ذلك، تميل مصادر التهديد إلى مشاركة تعليمات كسر حماية هذه الأداة عبر مختلف قنوات تواصل الإنترنت المظلم؛ إذ تعد هذه التعليمات مجموعات خاصة من الأوامر القادرة على إتاحة وظائف إضافية للأداة. كما تميل المصادر إلى ابتكار طرق لاستغلال الأدوات المشروعة، مثل تلك المستخدمة في اختبار الاختراق المعتمدة على نماذج لغوية لأغراض خبيثة.» بصرف النظر عن روبوتات المحادثة وأدوات الذكاء الاصطناعي المذكورة سابقاً، يتم إيلاء اهتمام كبير لروبوتات المحادثة المصممة لأغراض خبيثة مثل XXXGPT، وFraudGPT، وغيرهما. حيث يتم الترويج للنماذج اللغوية هذه على الإنترنت المظلم كبدائل لأداة ChatGPT مع تميّزها بوظائف إضافية وبعدم فرضها القيود الموجودة في الأداة الأصلية.
عرض حسابات ChatGPT مسروقة للبيع 
يواجه المستخدمون والشركات تهديداً آخر وهو سوق لبيع حسابات النسخة المدفوعة من ChatGPT. ففي عام 2023، اكتشفت كاسبرسكي 3 آلاف منشور آخر (بالإضافة إلى المنشورات المذكورة سابقاً) يعرضون حسابات ChatGPT للبيع عبر الإنترنت المظلم وقنوات مظلمة على تطبيق تلجرام. إذ تقوم هذه المنشورات إما ببيع الحسابات المسروقة أو الترويج لخدمات التسجيل التلقائي لمجموعة من الحسابات عند الطلب. والجدير بالذكر أن بعض المنشورات تمت مشاركتها أكثر من مرة عبر قنوات تواصل الإنترنت المظلم المتعددة.

نشاط المنشورات على الإنترنت المظلم التي تقدم حسابات ChatGPT مسروقة أو خدمات التسجيل التلقائي. المصدر: Kaspersky Digital Footrpint Intelligence

أضافت «أليسا كوليشينكو»: «أدوات الذكاء الاصطناعي ليست خطيرة بطبيعتها، لكن يحاول المجرمون السيبرانيون التوصل إلى طرق فعالة لاستخدام النماذج اللغوية الكبيرة، مما يدفع التوجه نحو تسهيل ارتكاب الجريمة السيبرانية، وربما يزيد عدد الهجمات السيبرانية في بعض الحالات. ومع ذلك، فليس مرجحاً أن يُحدث الذكاء الاصطناعي التوليدي وروبوتات المحادثة ثورة في مشهد الهجمات السيبرانية، في عام 2024 على الأقل. غالباً ما تعني الطبيعة الآلية للهجمات السيبرانية الحاجة إلى دفاعات آلية. ومع ذلك، فإن البقاء على اطلاع بأنشطة المهاجمين أمر بالغ الأهمية لاستباق الخصوم فيما يتعلق بأمن الشركات السيبراني.»

المصدر: بوابة الوفد

كلمات دلالية: الإنترنت المظلم راوتر خبير أمن المعلومات بوابة الوفد على الإنترنت المظلم الذکاء الاصطناعی خبیر أمن

إقرأ أيضاً:

خلال محاكمة.. الذكاء الاصطناعي يحيل إلى مرجع غير موجود

في محاكمة بين "أنثروبيك" للذكاء الاصطناعي وأصحاب حقوق ملكية فكرية، تضمنت مذكرة قضائية للدفاع عن الشركة الناشئة إشارة إلى مرجع وهمي لا وجود له.
بدأ الذكاء الاصطناعي يغير تدريجيا طريقة العمل في المجال القضائي. فبينما تسهّل هذه الأداة البحث في السوابق القضائية، يجب أن تخضع مخرجاتها للمراقبة بسبب قدرتها على الهلوسة.
وقد برز هذا مؤخرًا في محاكمة بين شركة "أنثروبيك" للذكاء الاصطناعي وشركات موسيقية. في أكتوبر 2023، طلبت شركات موسيقى من القضاة الاتحاديين في ولاية كاليفورنيا حظر استخدام دليلها الموسيقي لتدريب نماذج الذكاء الاصطناعي الخاصة بشركة "أنثروبيك".
رفض القضاة هذا الطلب في مارس 2025، معتبرين أنه لا يوجد دليل على ضرر لا يمكن إصلاحه. بعد ذلك، رفع المدعون دعوى قضائية أخرى تتعلق بانتهاك حقوق الطبع والنشر. تكمن إحدى نقاط الخلاف الرئيسية في هذه القضية في فحص حجم العينة المتفاعلة مع أداة "كلود" للذكاء الاصطناعي التابعة لشركة "أنثروبيك"، لتحديد وتيرة إعادة إنتاج الذكاء الاصطناعي لكلمات الأغاني المحمية أو توليدها.
مرجع وهمي
قدمت أوليفيا تشين، عالمة البيانات في شركة "أنثروبيك"، مذكرة إلى المحكمة تُجادل فيها بأن عينة من مليون تفاعل مستخدم كافية لتقديم "معدل انتشار معقول" لظاهرة نادرة: مستخدمو الإنترنت يبحثون عن كلمات الأغاني. وقدّرت أن هذه الحالة لا تُمثل سوى 0.01% من التفاعلات. وفي شهادتها، استشهدت بمقال أكاديمي نُشر في مجلة "الإحصائي الأميركي" تبيّن لاحقا أنه غير موجود.
طلب المدعون من المحكمة استدعاء أوليفيا تشين ورفض أقوالها بسبب الإحالة إلى هذا المراجع الزائف. ومع ذلك، منحت المحكمة شركة "أنثروبيك" وقتًا للتحقيق. وقد وصف محامي الشركة الناشئة الحادثة بأنها "خطأ بسيط في الاستشهاد"، وأقرّ بأن أداة "كلود" للذكاء الاصطناعي استُخدمت "لتنسيق ثلاثة مراجع ببليوغرافية على الأقل بشكل صحيح". وفي هذا السياق، اخترع الذكاء الاصطناعي مقالاً وهمياً، مع مؤلفين خاطئين لم يعملوا معًا قط.
تجنب أخطاء الذكاء الاصطناعي
تُسلّط هذه الحادثة الضوء على الانتشار المُقلق للأخطاء الناتجة عن الذكاء الاصطناعي في الإجراءات القانونية، وهي ظاهرة متنامية تُعرّض الشركات لمخاطر جسيمة، لا سيما عندما يعتمد محاموها على هذه الأدوات لجمع المعلومات وصياغة الوثائق القانونية.
يقول برايان جاكسون، مدير الأبحاث في مجموعة Info-Tech Research Group "خلق استخدام الذكاء الاصطناعي نوعًا من الكسل الذي أصبح مصدر قلق في المجال القانوني". ويضيف: "لا ينبغي استخدام أدوات الذكاء الاصطناعي كحل شامل لإنتاج الوثائق اللازمة للملفات القضائية".

أخبار ذات صلة الذكاء الاصطناعي يتنبأ بسكر الدم! تعليم نماذج الذكاء الاصطناعي ما لا تعرفه المصدر: الاتحاد - أبوظبي

مقالات مشابهة

  • جامعة القاهرة تتصدّر أبحاث الذكاء الاصطناعي في مصر بـ2,191 بحثًا
  • «شرطة دبي» تنظم ورشة تعريفية لتطبيقات الذكاء الاصطناعي
  • خلال محاكمة.. الذكاء الاصطناعي يحيل إلى مرجع غير موجود
  • تعليم نماذج الذكاء الاصطناعي ما لا تعرفه
  • نقابات العمال الأمريكية تبدأ معركتها ضد الذكاء الاصطناعي
  • الذكاء الاصطناعي يقتحم شاشات التلفزيون المصري بملامح فرعونية .. فيديو
  • احذر فخ الذكاء الاصطناعي: مشهد وهمي بتقنية Veo 3 يثير الجدل
  • هل يوجد الذكاء الاصطناعي جيلا مسلوب المهارات؟
  • كيف استخدمت السعودية الذكاء الاصطناعي في إدارة موسم الحج؟
  • في عصر الذكاء الاصطناعي.. رسائل تهنئة بعيد الأضحى 2025