اكتشاف صور اعتداء جنسي على أطفال ببيانات تدريبية على الذكاء الاصطناعي
تاريخ النشر: 22nd, December 2023 GMT
(CNN)-- قال باحثون في مرصد ستانفورد للإنترنت في دراسة نشرت في وقت سابق من هذا الأسبوع إنه تم العثور على أكثر من ألف صورة لمواد الاعتداء الجنسي على الأطفال في مجموعة بيانات عامة ضخمة تستخدم لتدريب نماذج توليد الصور الشهيرة المعتمدة على الذكاء الاصطناعي.
وجود هذه الصور في بيانات التدريب قد يسهل على نماذج الذكاء الاصطناعي إنشاء صور جديدة وواقعية يتم إنشاؤها بواسطة الذكاء الاصطناعي لمحتوى إساءة معاملة الأطفال، أو صور “تزييف عميق” للأطفال الذين يتم استغلالهم.
تثير النتائج أيضًا عددًا كبيرًا من المخاوف الجديدة المحيطة بالطبيعة الغامضة لبيانات التدريب التي تعمل كأساس لمجموعة جديدة من أدوات الذكاء الاصطناعي القوية.
تحتوي مجموعة البيانات الضخمة التي فحصها باحثو جامعة ستانفورد، والمعروفة باسم LAION 5B، على مليارات الصور التي تم استخراجها من الإنترنت، بما في ذلك من وسائل التواصل الاجتماعي ومواقع الترفيه للبالغين.
ومن بين أكثر من 5 مليارات صورة في مجموعة البيانات، قال باحثو جامعة ستانفورد إنهم حددوا ما لا يقل عن 1008 حالات من مواد الاعتداء الجنسي على الأطفال.
وقالت LAION، المنظمة الألمانية غير الربحية التي تقف وراء مجموعة البيانات، في بيان على موقعها على الإنترنت إن لديها "سياسة عدم التسامح مطلقًا مع المحتوى غير القانوني".
وقالت المنظمة إنها تلقت نسخة من التقرير من جامعة ستانفورد، وهي بصدد تقييم النتائج التي توصل إليها. كما أشارت إلى أن مجموعات البيانات تمر عبر "أدوات تصفية مكثفة" للتأكد من أنها آمنة وتمتثل للقانون.
وأضافت المنظمة: "بسبب قدر كبير من الحذر، قمنا بإيقاف تشغيل LAION 5B"، قائلة إنها تعمل مع مؤسسة مراقبة الإنترنت ومقرها المملكة المتحدة "للعثور على الروابط التي قد لا تزال تشير إلى محتوى مشبوه وربما غير قانوني وإزالتها".
وقالت LAION إنها تخطط لإكمال مراجعة السلامة الكاملة لـ LAION 5B بحلول النصف الثاني من شهر يناير وتخطط لإعادة نشر مجموعة البيانات في ذلك الوقت.
وفي الوقت نفسه، قال فريق ستانفورد إن إزالة الصور المحددة جارية حاليًا بعد أن أبلغ الباحثون عن عناوين روابط الصور إلى المركز الوطني للأطفال المفقودين والمستغلين والمركز الكندي لحماية الطفل.
في التقرير، قال الباحثون إنه بينما حاول مطورو LAION 5B تصفية محتوى صريح معين، فقد تم تدريب نسخة سابقة من نموذج توليد الصور الشهير Stable Diffusion في النهاية على "مجموعة واسعة من المحتوى، سواء كان صريحًا أو غير ذلك".
وقال متحدث باسم Stability AI، الشركة الناشئة التي تتخذ من لندن مقراً لها والتي تقف خلف Stable Diffusion، لشبكة CNN في بيان إن هذا الإصدار السابق، Stable Diffusion 1.5، تم إصداره من قبل شركة منفصلة وليس بواسطة Stability AI.
وقد لاحظ الباحثون في جامعة ستانفورد أن Stable Diffusion 2.0 قام بتصفية النتائج التي اعتبرت غير آمنة إلى حد كبير، ونتيجة لذلك لم يكن لديه سوى القليل من المواد الواضحة في مجموعة التدريب.
ذكر تقرير ستانفورد أن مجموعات البيانات الضخمة على نطاق الويب تمثل مشكلة كبيرة لعدد من الأسباب، حتى مع محاولات التصفية الآمنة، بسبب احتمال تضمينها ليس فقط لمواد الاعتداء الجنسي على الأطفال ولكن أيضًا بسبب مخاوف الخصوصية وحقوق الطبع والنشر الأخرى التي تنشأ من استخدامها.
وأوصى التقرير بأن تقتصر مجموعات البيانات هذه على "إعدادات البحث فقط" وأنه يجب استخدام "مجموعات البيانات الأكثر تنظيمًا وذات المصادر الجيدة" فقط للنماذج الموزعة بشكل عام.
المصدر: CNN Arabic
كلمات دلالية: اعتداءات جنسية تكنولوجيا الذکاء الاصطناعی مجموعة البیانات جامعة ستانفورد
إقرأ أيضاً:
موتى يعملون بعد رحيلهم.. إلى أين يأخذنا الذكاء الاصطناعي؟
لم يعد الموت نهاية حتمية للصوت، أو المشاعر، أو حتى النصيحة، ففي عالم يتطور بسرعة مذهلة بفضل الذكاء الاصطناعي، قد يعود الجد المتوفى ليحكي لحفيدته كيف يُصلَح صنبور الماء، أو ينصحها بشأن اختيار شريك الحياة.
ويعد ذلك ليس خيالًا علميًا، بل واقع قيد التشكّل تسعى إليه شركات تقنية كبرى وناشئة، بدعم من أبحاث أكاديمية ومبادرات تجارية، في ما يُعرف اليوم بـ"الورثة الرقميين" أو "الأشباح التوليدية".
وتناولت دراسة حديثة صدرت في نيسان/ أبريل 2025 عن جامعة كولورادو بولدر بالتعاون مع "Google DeepMind"، بعنوان "حوار مع الراحلين"، استخدام الذكاء الاصطناعي التوليدي في إنشاء روبوتات محادثة تُحاكي شخصيات الأموات، بناءً على سجلهم الرقمي.
وتعتمد هذه التكنولوجيا على أرشفة بيانات الشخص: الرسائل، التسجيلات الصوتية، منشورات مواقع التواصل، وحتى مقاطع الفيديو، لتكوين نموذج تفاعلي يُجري محادثات واقعية تحاكي شخصية المتوفى بدقة مذهلة.
وتتيح شركات مثل “HereAfter AI” و“StoryFile” و“Re;memory” دخلت هذا المجال بقوة.
وعلى سبيل المثال، يستطيع الأشخاص قبل وفاته تسجيل ردود مفصلة على أسئلة متنوعة، ليتم تحويلها بعد وفاته إلى مساعد صوتي يمكن للأقارب التحدث معه عبر الهاتف أو التطبيقات.
وفي كوريا الجنوبية، أطلقت شركة “DeepBrain AI” خدمة تعيد بناء الشخص كاملًا في هيئة مجسّم ثلاثي الأبعاد يتفاعل بالصوت والصورة.
ولا يقتصر التفاعل مع "أشباح رقمية" على الحنين، بل يتعداه إلى وظائف عملية، مثل شرح إجراءات قانونية، تقديم وصفات طعام عائلية، أو حتى إعطاء نصائح مالية، وفي بعض الحالات، يُتوقع أن تصبح هذه النماذج الرقمية مصادر دخل لأسر المتوفين، عبر بيع كتب أو محتوى تم إنتاجه باستخدام شخصياتهم الرقمية.
ويقابل الحماس التقني قلق أخلاقي متزايد، حيث حذر باحثون من جامعة كامبريدج من "العلاقة العاطفية القهرية" التي قد تنشأ بين الأحياء وهذه النماذج، مما يُعقّد عملية الحزن الطبيعي. كما نبّهوا إلى احتمال أن تُستخدم هذه النماذج في إيذاء الآخرين، أو نشر معلومات خاطئة تُنسب زورًا إلى المتوفى.
ويزيد القلق من إمكانيات إساءة الاستخدام التجاري، مثل بث إعلانات موجهة عبر صوت المتوفى، أو اختراق خصوصية العائلات. كما حذّرت تقارير من أن بعض النماذج قد تُنتج "هلوسات ذكائية" – أي معلومات ملفقة لا تستند إلى وقائع، مما قد يشوه إرث الراحل أو يكشف أسرارًا لم يكن يرغب في الإفصاح عنها.
أمام هذه الطفرة التكنولوجية، يبرز سؤال جوهري: من يمتلك حق التحكم في النسخة الرقمية من الشخص بعد وفاته؟ ومن يضمن ألا يُعاد استخدامه ضد إرادته؟ تدعو مؤسسات حقوقية وخبراء قانون إلى وضع أطر تشريعية صارمة لضمان الموافقة المسبقة، والحق في المحو، وعدم استخدام هذه النماذج في الإعلانات أو التلاعب العاطفي.
ومع اتساع انتشار هذه الظاهرة، يبدو أن الموت، كما عرفناه، لم يعد خط النهاية. بل أصبح فصلًا جديدًا تُكتبه خوارزميات، وتعيشه نسخ رقمية قد تنصح، تبتسم، وتشارك… من عالم ما بعد الحياة.