"الذكاء الاصطناعي يهدد حياة المراهقات".. مخاوف من انتشار الصور العارية المفبركة!
تاريخ النشر: 6th, November 2023 GMT
سلط تقرير صادر عن "واشنطن بوست" الضوء على زيادة خطر استخدام الذكاء الاصطناعي في إنشاء صور ومقاطع فيديو إباحية مفبركة.
ويتم ذلك من خلال أدوات الذكاء الاصطناعي الرخيصة وسهلة الاستخدام، التي "تعرّي" الأشخاص من ملابسهم في الصور الفوتوغرافية.
ونتيجة لذلك، حقق انتشار الصور العارية المزيفة زيادة كبيرة بأكثر من 290% منذ عام 2018، عبر أفضل 10 مواقع تستضيف صورا إباحية تم إنشاؤها بواسطة الذكاء الاصطناعي، وفقا لجينيفيف أوه، محللة الصناعة.
وتضم هذه المواقع مشاهير وشخصيات سياسية إلى جانب فتيات مراهقات عاديات، تستخدم صورهن بغرض التحريض على العار أو الابتزاز للحصول على أموال أو العيش في خيالات خاصة.
إقرأ المزيدوكشف التقرير أنه لا يوجد قانون فيدرالي أمريكي يحكم المواد الإباحية المفبركة، كما أن "ولايات قليلة جدا صنعت لوائح منظمة".
ويمثل ظهور صور الذكاء الاصطناعي خطرا خاصا على النساء والمراهقات، حيث أن الكثير منهن غير مستعدات لمثل هذا الظهور. ووجدت دراسة أجرتها Sensity AI عام 2019، وهي شركة تراقب الصور المزيفة، أن 96% من الصور المزيفة هي مواد إباحية، و99% من تلك الصور تستهدف النساء.
وبهذا الصدد، تناول التقرير واقعة المؤثرة على "يوتيوب"، غابي بيل، التي عانت من واقعة انتشار صورة عارية لها على الإنترنت، حيث لم يسبق لها أن التقطت صورة مماثلة وكانت تعلم أنها مفبركة.
وعندما طلبت المساعدة من زميلها لإزالة الصورة، أخبرها أن هناك ما يقرب من 100 صورة مزيفة منتشرة عبر الإنترنت، ومعظمها موجود على مواقع إباحية تستخدم صور وفيديوهات مصممة بواسطة الذكاء الاصطناعي.
ولا تزال بيل غير متأكدة من عدد الصور المزيفة لها المنشورة للعامة، وقالت إن هناك حاجة إلى قواعد أقوى للتعامل مع تجربتها.
وقال غانغ وانغ، خبير الذكاء الاصطناعي بجامعة إلينوي في "أوربانا شامبين"، إنه من خلال تحليل ملايين الصور، يمكن لبرنامج الذكاء الاصطناعي التنبؤ بشكل أفضل بكيفية ظهور الجسم عاريا وتغطية الوجه بسلاسة في مقطع فيديو إباحي.
إقرأ المزيدوعلى الرغم من أن العديد من مولدات الصور المستندة إلى الذكاء الاصطناعي تمنع المستخدمين من إنشاء مواد إباحية، فإن البرامج مفتوحة المصدر تجعل شفرتها علنية، ما يسمح للمطورين الهواة بتكييف التكنولوجيا، غالبا لأغراض شائنة.
وقالت أوه إنه بمجرد أن تصبح هذه التطبيقات عامة، فإنها تستخدم برامج تشجع المستخدمين على مشاركة هذه الصور التي تم إنشاؤها بواسطة الذكاء الاصطناعي، على وسائل التواصل الاجتماعي مقابل المال.
وأشار التقرير إلى أن غوغل تعمل على وضع سياسات خاصة لمنع ظهور الصور الجنسية في نتائج البحث، لكن وسائل الحماية التي توفرها للصور المزيفة ليست قوية.
وقال نيد أدريانس، المتحدث باسم غوغل، إن الشركة "تعمل بنشاط لتوفير المزيد من الحماية للبحث" وتسمح للمستخدمين بطلب إزالة المواد الإباحية المزيفة بشكل غير طوعي.
وقال إن غوغل بصدد "بناء المزيد من الضمانات الشاملة" التي لن تتطلب من الضحايا أن يطلبوا بشكل فردي إزالة المحتوى.
المصدر: واشنطن بوست
المصدر: RT Arabic
كلمات دلالية: بحوث الذکاء الاصطناعی
إقرأ أيضاً:
رويترز تفند مزاعم اعتقال توكل كرمان في هولندا وتؤكد أن الصور مفبركة بالذكاء الاصطناعي
فندت وكالة رويترز للأنباء خبرا جرى تداوله مؤخرا على نطاق واسع ويتحدث عن مزاعم بإلقاء الادعاء العام الهولندي والشرطة الهولندية القبض على الناشطة اليمنية الحائزة على جائزة نوبل للسلام بتهمة التحريض على الحكومة في المغرب.
وسردت الوكالة عبر خدمة تقصي الحقائق التي تنشرها لتفنيد الأخبار المزيفة والمضللة استعراضا للمنشورات التي روجت لهذا الخبر، وتوصلت إلا أنه لاصحة للقبض على كرمان في هولندا، وأن الصور المولدة في المنشورات جرى توليدها بواسطة بالذكاء الاصطناعي.
ووفقا للوكالة فقد أظهر تحليل أداة سينث آي وهو برنامج للكشف عن الوسائط المنتجة بالذكاء الاصطناعي، أن الصورة المتداولة في المنشورات منتجة باستخدام أحد نماذج جوجل للذكاء الاصطناعي.
ونقلت الوكالة عن توكل كرمان تأكيدها بعدم سفرها إلى هولندا، وقالت إن القول بأن هولندا أو غيرها ستلقي القبض عليّ بناء على شكوى نظام مستبد فاشل مثل المغرب مجرد نكتة سمجة.
الوكالة نشرت تصريحا لمكتب الادعاء العام الهولندي قال لرويترز إن المنشورات حول توكل كرمان زائفة ولم يُلق القبض عليها في هولندا.
وكانت عدة منشورات في وسائل التواصل الاجتماعي انتشرت مؤخرا، تفيد باعتقال سلطات هولندا لتوكل كرمان، واحتوت تلك المنشورات على صور للناشطة اليمنية وهي بجوار عناصر عسكرية، زعم ناشروها أنها لكرمان مع الشرطة.