(CNN)-- قال باحثون في مرصد ستانفورد للإنترنت في دراسة نشرت في وقت سابق من هذا الأسبوع إنه تم العثور على أكثر من ألف صورة لمواد الاعتداء الجنسي على الأطفال في مجموعة بيانات عامة ضخمة تستخدم لتدريب نماذج توليد الصور الشهيرة المعتمدة على الذكاء الاصطناعي.

وجود هذه الصور في بيانات التدريب قد يسهل على نماذج الذكاء الاصطناعي إنشاء صور جديدة وواقعية يتم إنشاؤها بواسطة الذكاء الاصطناعي لمحتوى إساءة معاملة الأطفال، أو صور “تزييف عميق” للأطفال الذين يتم استغلالهم.

تثير النتائج أيضًا عددًا كبيرًا من المخاوف الجديدة المحيطة بالطبيعة الغامضة لبيانات التدريب التي تعمل كأساس لمجموعة جديدة من أدوات الذكاء الاصطناعي القوية.

تحتوي مجموعة البيانات الضخمة التي فحصها باحثو جامعة ستانفورد، والمعروفة باسم LAION 5B، على مليارات الصور التي تم استخراجها من الإنترنت، بما في ذلك من وسائل التواصل الاجتماعي ومواقع الترفيه للبالغين.

ومن بين أكثر من 5 مليارات صورة في مجموعة البيانات، قال باحثو جامعة ستانفورد إنهم حددوا ما لا يقل عن 1008 حالات من مواد الاعتداء الجنسي على الأطفال.

وقالت LAION، المنظمة الألمانية غير الربحية التي تقف وراء مجموعة البيانات، في بيان على موقعها على الإنترنت إن لديها "سياسة عدم التسامح مطلقًا مع المحتوى غير القانوني".

وقالت المنظمة إنها تلقت نسخة من التقرير من جامعة ستانفورد، وهي بصدد تقييم النتائج التي توصل إليها. كما أشارت إلى أن مجموعات البيانات تمر عبر "أدوات تصفية مكثفة" للتأكد من أنها آمنة وتمتثل للقانون.

وأضافت المنظمة: "بسبب قدر كبير من الحذر، قمنا بإيقاف تشغيل LAION 5B"، قائلة إنها تعمل مع مؤسسة مراقبة الإنترنت ومقرها المملكة المتحدة "للعثور على الروابط التي قد لا تزال تشير إلى محتوى مشبوه وربما غير قانوني وإزالتها".

وقالت LAION إنها تخطط لإكمال مراجعة السلامة الكاملة لـ LAION 5B بحلول النصف الثاني من شهر يناير وتخطط لإعادة نشر مجموعة البيانات في ذلك الوقت.

وفي الوقت نفسه، قال فريق ستانفورد إن إزالة الصور المحددة جارية حاليًا بعد أن أبلغ الباحثون عن عناوين روابط الصور إلى المركز الوطني للأطفال المفقودين والمستغلين والمركز الكندي لحماية الطفل.

في التقرير، قال الباحثون إنه بينما حاول مطورو LAION 5B تصفية محتوى صريح معين، فقد تم تدريب نسخة سابقة من نموذج توليد الصور الشهير Stable Diffusion في النهاية على "مجموعة واسعة من المحتوى، سواء كان صريحًا أو غير ذلك".

وقال متحدث باسم Stability AI، الشركة الناشئة التي تتخذ من لندن مقراً لها والتي تقف خلف Stable Diffusion، لشبكة CNN في بيان إن هذا الإصدار السابق، Stable Diffusion 1.5، تم إصداره من قبل شركة منفصلة وليس بواسطة Stability AI.

وقد لاحظ الباحثون في جامعة ستانفورد أن Stable Diffusion 2.0 قام بتصفية النتائج التي اعتبرت غير آمنة إلى حد كبير، ونتيجة لذلك لم يكن لديه سوى القليل من المواد الواضحة في مجموعة التدريب.

ذكر تقرير ستانفورد أن مجموعات البيانات الضخمة على نطاق الويب تمثل مشكلة كبيرة لعدد من الأسباب، حتى مع محاولات التصفية الآمنة، بسبب احتمال تضمينها ليس فقط لمواد الاعتداء الجنسي على الأطفال ولكن أيضًا بسبب مخاوف الخصوصية وحقوق الطبع والنشر الأخرى التي تنشأ من استخدامها.

وأوصى التقرير بأن تقتصر مجموعات البيانات هذه على "إعدادات البحث فقط" وأنه يجب استخدام "مجموعات البيانات الأكثر تنظيمًا وذات المصادر الجيدة" فقط للنماذج الموزعة بشكل عام.

المصدر: CNN Arabic

كلمات دلالية: اعتداءات جنسية تكنولوجيا الذکاء الاصطناعی مجموعة البیانات جامعة ستانفورد

إقرأ أيضاً:

ورشة عمل حول أخلاقيات الذكاء الاصطناعي في التعليم والصحة

مسقط- الرؤية

شاركت جامعة التقنية والعلوم التطبيقية ممثلةً في كرسي الإيسيسكو لأخلاقيات الذكاء الاصطناعي في فعالية مشتركة مع كرسي اليونسكو للذكاء الاصطناعي بجامعة السلطان قابوس، تمثلت في تنظيم تجمع علمي وورشة عمل متقدمة حول أخلاقيات الذكاء الاصطناعي في التعليم والصحة، وذلك خلال يومي 30 نوفمبر و1 ديسمبر 2025م في جامعة السلطان قابوس، حيث تهدف الفعالية إلى تعزيز الوعي المجتمعي والمؤسسي بأهمية ضبط استخدام الذكاء الاصطناعي وفق أسس أخلاقية متينة، وتطوير أطر عمل وطنية تتماشى مع القيم الإنسانية والمبادئ العلمية.

وجاءت مشاركة جامعة التقنية والعلوم التطبيقية لتعزيز الحوار الوطني حول الاستخدام المسؤول للتقنيات الحديثة، ودعم جهود سلطنة عمان في بناء منظومة أخلاقية واضحة تحكم تطبيقات الذكاء الاصطناعي المتسارعة في مختلف القطاعات.

وشهد اليوم الأول من الفعالية تنظيم ورشتي عمل متزامنتين شارك فيهما عدد من الأكاديميين والباحثين والمهنيين والطلبة.

وقدم الدكتور مصعب الراوي، مدير كرسي الإيسيسكو لأخلاقيات الذكاء الاصطناعي بجامعة التقنية والعلوم التطبيقية، ورشة بعنوان "من الرؤية إلى الإطار الأخلاقي للمؤسسة"، تناول فيها كيفية الانتقال من المبادئ العامة لأخلاقيات الذكاء الاصطناعي إلى سياسات عملية قابلة للتطبيق في المؤسسات التعليمية.

وركزت الورشة على أهمية تعزيز الشفافية في استخدام الأنظمة الذكية، وضمان حماية خصوصية الطلبة، وبناء قواعد واضحة للاستخدام المسؤول لأدوات الذكاء الاصطناعي في التدريس والتقييم والبحث العلمي، بما يضمن إيجاد بيئة تعليمية قائمة على النزاهة والموثوقية.

وفي السياق ذاته، قدّمت البروفسورة فانيسا نورك، رئيسة كرسي اليونسكو EVA للأخلاقيات بجامعة كوت دازور الفرنسية، ورشة متخصصة حول مفهوم "الأخلاقيات بالتضمين والتصميم"، تطرقت فيها إلى كيفية دمج الأخلاقيات في المراحل المبكرة من تصميم الأنظمة الذكية، بحيث تكون مبادئ الأمن والخصوصية والإنصاف جزءًا أصيلًا من البنية التقنية نفسها.

كما استعرضت خلال الورشة نتائج المشروع الأوروبي "Miracle"، الذي يركز على تطبيقات الذكاء الاصطناعي في المجالات الصحية مع مراعاة الجوانب الأخلاقية للتشخيص الآلي وإدارة بيانات المرضى، إضافة إلى الإشكاليات المرتبطة بالقرارات الخوارزمية والاعتبارات الأخلاقية المصاحبة لها.

وفي اليوم الثاني، تتواصل الفعالية بعقد تجمع علمي وجلسات حوارية موسعة احتضنتها قاعة المعرفة بجامعة السلطان قابوس، تبدأ بكلمة افتتاحية للبروفيسور عبد الناصر حسين، رئيس كرسي اليونسكو للذكاء الاصطناعي. وتتضمن الجلسات مناقشات متعمقة حول أخلاقيات الذكاء الاصطناعي في التعليم، ورؤى حول مستقبل التعلم المرتبط بالتقنيات الذكية والتحديات التي تواجه المؤسسات الأكاديمية في ضمان النزاهة والعدالة في الاستخدام. كما تتناول الجلسات القضايا المتعلقة بأخلاقيات الذكاء الاصطناعي في الطب، بما في ذلك مسؤولية الأنظمة الذكية في اتخاذ القرارات التشخيصية، والاعتبارات الإنسانية في التعامل مع بيانات المرضى، وآليات الموازنة بين الابتكار الطبي والحفاظ على المعايير الأخلاقية.

وعكست الفعالية التزام كلٍّ من كرسي الإيسيسكو وكرسي اليونسكو بإرساء بيئة بحثية مشتركة تدعم تبادل المعرفة والخبرات، وتعزز بناء قدرات وطنية قادرة على التعامل مع التحديات التقنية والأخلاقية للذكاء الاصطناعي. وفي ختام التجمع، شدّد المشاركون على ضرورة استمرار هذا التعاون الأكاديمي لما له من أثر مباشر في دفع عجلة البحث العلمي، وتطوير سياسات واضحة تحكم استخدام الأنظمة الذكية في السلطنة، وتمهّد لبناء مستقبل أكثر أمانًا وشفافية في التعامل مع التقنيات الناشئة.



 

مقالات مشابهة

  • ورشة عمل حول أخلاقيات الذكاء الاصطناعي في التعليم والصحة
  • تقويم بوتين 2026: صور على الثلج مع الكلاب وعزفٌ على البيانو.. وأوكرانيا الغائب الحاضر
  • عالمة بصناعة الأدوية: استخدام الذكاء الاصطناعي في تسريع اكتشاف الأدوية يوفر آلاف التجارب
  • ما الذي تغفله هوليوود عن الذكاء الاصطناعي؟
  • مفاجآت عن تأثير الذكاء الاصطناعي على مستقبل التصميم في مصر
  • الكادحون الجدد في مزارع الذكاء الاصطناعي
  • جوجل تختبر الإعلانات في وضع الذكاء الاصطناعي
  • هل يزيدنا الذكاء الاصطناعي ذكاءً؟
  • الذكاء الاصطناعي يكشف سرا خفيا في لغة الأسود
  • كاتب بريطاني: عصر المرتزقة باق ولن يزول