بريطانيا تحقق في اغتصاب جماعي لفتاة بعالم ميتافيرس.. فكيف حدثت الجريمة؟
تاريخ النشر: 3rd, January 2024 GMT
فتحت الشرطة البريطانية تحقيقًا في جريمة اغتصاب في عالم ميتافيرس بعد أن «تعرضت» فتاة تبلغ من العمر 16 عامًا «للاغتصاب» من قبل مجموعة من الرجال عبر الإنترنت، وفقاً لصحيفة «مترو». وبحسب التقرير، لم تتعرض الضحية لأذى جسدي، ولكن يقال إنها عانت من نفس الصدمة النفسية والعاطفية التي يعاني منها الشخص الذى تعرض للاعتداء في الحياة الحقيقية، حيث كانت ترتدي سماعة رأس للواقع الافتراضي (VR) وفي غرفة افتراضية عندما اعتدى عليها الرجال، وفقًا لموقع Mail Online.
وتقدر الجمعية الوطنية لمنع القسوة ضد الأطفال NSPCC الخيرية، أن 15% من الأطفال الذين تتراوح أعمارهم بين 5 و10 استخدموا سماعات رأس الواقع الافتراضي، و6% يستخدمون واحدة يوميًا. ولكن في هذه القضية التاريخية، هناك مخاوف من عدم إمكانية الملاحقة القضائية لعدد من الأسباب. وقال ضابط كبير مطلع على القضية لصحيفة Mail Online: «لقد عانت الطفلة من صدمة نفسية مماثلة لتلك التي يعاني منها الشخص الذي تعرض للاغتصاب الجسدي، هناك تأثير عاطفي ونفسي على الضحية أطول أمدا من أي إصابات جسدية، إنه يشكل عددًا من التحديات أمام إنفاذ القانون نظرًا لعدم إعداد التشريعات الحالية لهذا الغرض». أثارت القضية أيضًا مسألة ما إذا كان ينبغي التحقيق في القضايا الافتراضية نظرًا للتراكم الحالي لقضايا الاغتصاب الجسدي التي تكافح الشرطة بالفعل لمقاضاتها. فى لعبة Horizon Worlds، وهي لعبة مجانية للواقع الافتراضي أنشأها مالك موقع Facebook Meta، كان هناك بالفعل عدد من الاعتداءات الجنسية المزعومة، بينما قالت المعالجة النفسية نينا جين باتيل في مايو من العام الماضي، إنها شاركت في لعبة Horizon Venues، وهي لعبة فرعية، لمدة أقل من عام، قبل دقيقة واحدة من تعرضها «للاغتصاب الجماعي تقريبًا». وقالت دونا جونز، رئيسة رابطة مفوضي الشرطة والجريمة: «نحن بحاجة إلى تحديث قوانيننا لأنها لم تواكب مخاطر الضرر الذي يتطور من الذكاء الاصطناعي والانتهاكات على منصات مثل ميتافيرس». البيئات الافتراضية
وأضافت في حديثها إلى Mail Online: «تحتاج الحكومة إلى النظر في تغيير القانون لحماية النساء والأطفال من الأذى في هذه البيئات الافتراضية». وقال متحدث باسم Meta: «هذا النوع من السلوك الموصوف ليس له مكان على نظامنا الأساسي، ولهذا السبب لدينا حماية تلقائية لجميع المستخدمين تسمى الحدود الشخصية، والتي تبقي الأشخاص الذين لا تعرفهم على بعد بضعة أقدام منك». ومع ذلك، حذر كريتشلي من أن الشرطة بحاجة إلى الرد مع تغير السلوك الإجرامي. وقال: «نحن نعلم أن أساليب المجرمين في الاستمالة وارتكاب الجرائم تتطور باستمرار، وهذا هو السبب في أن معركتنا الجماعية ضد المحتالين، كما في هذه الحالة، ضرورية لضمان حماية الشباب عبر الإنترنت وتمكنهم من استخدام التكنولوجيا بأمان دون تهديد أو خوف». ويأتي التهديد الذي يتعرض له الأطفال في العوالم الافتراضية مع تزايد استخدام الذكاء الاصطناعي لإنشاء صور إساءة معاملة الأطفال عبر الإنترنت والتلاعب بها. عند إطلاق تقرير حول أضرار الذكاء الاصطناعي على الإنترنت في العام الماضي، قالت سوزي هارجريفز، الرئيس التنفيذي لمؤسسة Internet Watch Foundation: «في وقت سابق من هذا العام، حذرنا من أن صور الذكاء الاصطناعي قد لا يمكن تمييزها قريبًا عن الصور الحقيقية للأطفال الذين يعانون من الاعتداء الجنسي، وأننا يمكن أن نبدأ في رؤية هذه الصور تنتشر، بأعداد أكبر بكثير.
المصدر: صحيفة الأيام البحرينية
كلمات دلالية: فيروس كورونا الذکاء الاصطناعی عبر الإنترنت
إقرأ أيضاً:
خلال محاكمة.. الذكاء الاصطناعي يحيل إلى مرجع غير موجود
في محاكمة بين "أنثروبيك" للذكاء الاصطناعي وأصحاب حقوق ملكية فكرية، تضمنت مذكرة قضائية للدفاع عن الشركة الناشئة إشارة إلى مرجع وهمي لا وجود له.
بدأ الذكاء الاصطناعي يغير تدريجيا طريقة العمل في المجال القضائي. فبينما تسهّل هذه الأداة البحث في السوابق القضائية، يجب أن تخضع مخرجاتها للمراقبة بسبب قدرتها على الهلوسة.
وقد برز هذا مؤخرًا في محاكمة بين شركة "أنثروبيك" للذكاء الاصطناعي وشركات موسيقية. في أكتوبر 2023، طلبت شركات موسيقى من القضاة الاتحاديين في ولاية كاليفورنيا حظر استخدام دليلها الموسيقي لتدريب نماذج الذكاء الاصطناعي الخاصة بشركة "أنثروبيك".
رفض القضاة هذا الطلب في مارس 2025، معتبرين أنه لا يوجد دليل على ضرر لا يمكن إصلاحه. بعد ذلك، رفع المدعون دعوى قضائية أخرى تتعلق بانتهاك حقوق الطبع والنشر. تكمن إحدى نقاط الخلاف الرئيسية في هذه القضية في فحص حجم العينة المتفاعلة مع أداة "كلود" للذكاء الاصطناعي التابعة لشركة "أنثروبيك"، لتحديد وتيرة إعادة إنتاج الذكاء الاصطناعي لكلمات الأغاني المحمية أو توليدها.
مرجع وهمي
قدمت أوليفيا تشين، عالمة البيانات في شركة "أنثروبيك"، مذكرة إلى المحكمة تُجادل فيها بأن عينة من مليون تفاعل مستخدم كافية لتقديم "معدل انتشار معقول" لظاهرة نادرة: مستخدمو الإنترنت يبحثون عن كلمات الأغاني. وقدّرت أن هذه الحالة لا تُمثل سوى 0.01% من التفاعلات. وفي شهادتها، استشهدت بمقال أكاديمي نُشر في مجلة "الإحصائي الأميركي" تبيّن لاحقا أنه غير موجود.
طلب المدعون من المحكمة استدعاء أوليفيا تشين ورفض أقوالها بسبب الإحالة إلى هذا المراجع الزائف. ومع ذلك، منحت المحكمة شركة "أنثروبيك" وقتًا للتحقيق. وقد وصف محامي الشركة الناشئة الحادثة بأنها "خطأ بسيط في الاستشهاد"، وأقرّ بأن أداة "كلود" للذكاء الاصطناعي استُخدمت "لتنسيق ثلاثة مراجع ببليوغرافية على الأقل بشكل صحيح". وفي هذا السياق، اخترع الذكاء الاصطناعي مقالاً وهمياً، مع مؤلفين خاطئين لم يعملوا معًا قط.
تجنب أخطاء الذكاء الاصطناعي
تُسلّط هذه الحادثة الضوء على الانتشار المُقلق للأخطاء الناتجة عن الذكاء الاصطناعي في الإجراءات القانونية، وهي ظاهرة متنامية تُعرّض الشركات لمخاطر جسيمة، لا سيما عندما يعتمد محاموها على هذه الأدوات لجمع المعلومات وصياغة الوثائق القانونية.
يقول برايان جاكسون، مدير الأبحاث في مجموعة Info-Tech Research Group "خلق استخدام الذكاء الاصطناعي نوعًا من الكسل الذي أصبح مصدر قلق في المجال القانوني". ويضيف: "لا ينبغي استخدام أدوات الذكاء الاصطناعي كحل شامل لإنتاج الوثائق اللازمة للملفات القضائية".