بسبب الصور العارية.. آبل تحذف تطبيقات للذكاء الاصطناعي من «آب ستور»
تاريخ النشر: 28th, April 2024 GMT
حذفت شركة آبل، بعض تطبيقات الذكاء الاصطناعي من متجر تطبيقات «آب ستور»، بسبب إمكانية إنشاء هذه التطبيقات لصور عارية ذات طبيعة جنسية.
سبب حذف آبل لتطبيقات الذكاء الاصطناعيوعلى الرغم من أن قدرات الذكاء الاصطناعي التوليدي في إنشاء الصور استنادًا إلى أوامر المستخدمين، أصبحت أداة مفيدة جدا، خصوصا في التصوير الفوتوغرافي والتصميم، إلا أنه قد يُساء استخدامها، ويتم إنشاء صور مزيفة أو ذات طبيعة جنسية لأشخاص آخرين، واستغلالهم من خلالها.
وأبلغت آبل بوجود عدد من تطبيقات إنشاء الصور المدعومة بالذكاء الاصطناعي في متجر «آب ستور» التي يُروج لها على أنها قادرة على «إنشاء صور عارية بدون موافقة.
واعتمدت الشركات المطورة لتلك التطبيقات على إعلانات إنستجرام، كي تروج لهذه التطبيقات، والتي تزعم أنه يمكن للشخص«خلع ملابس الفتيات مجانًا».
كما احتوت تلك الإعلانات على روابط، تنقل من خلالها المستخدمين إلى صفحات تلك التطبيقات في متجر «آب ستور».
اقرأ أيضاًدراسة تحذر: الذكاء الاصطناعي يمكن تدريبه على الكذب بكل سهولة
قضايا الدولة تشارك في مؤتمر الذكاء الاصطناعي التوليدي بالعاصمة الإدارية
يساعد على مكافحة الشيخوخة.. آخر أخبار الذكاء الاصطناعي حول العالم
المصدر: الأسبوع
كلمات دلالية: الذكاء الاصطناعي تطبيقات الذكاء الاصطناعي متجر آب ستور الذکاء الاصطناعی آب ستور
إقرأ أيضاً:
توظيف الذكاء الاصطناعي في البحث العلمي خطوة نحو حوكمة الابتكار
يأتي إصدار الدليل الاسترشادي لاستخدام الذكاء الاصطناعي في التعليم العالي والبحث العلمي في لحظة محورية تشهد فيها الجامعات حول العالم سباقًا محمومًا نحو دمج هذه التقنيات في أنظمتها التعليمية والبحثية. ومن ثمّ، يمثل هذا الدليل المصري علامة فارقة في مسار التحول الرقمي الأكاديمي، ليس فقط بوصفه وثيقة تنظيمية، بل كإطارٍ أخلاقي ومعرفي يوازن بين الإبداع والمسؤولية.
إذ جاء هذا الدليل ليعكس رؤية واضحة لوزارة التعليم العالي والمجلس الأعلى للجامعات نحو بناء بيئة أكاديمية ذكية، ترتكز على الاستخدام الآمن والمسؤول لتقنيات الذكاء الاصطناعي التوليدي، فهو لا يكتفي بتحديد التطبيقات الممكنة في مجالات التعليم، بل يذهب أبعد من ذلك بوضع ضوابط دقيقة لاستخدام الذكاء الاصطناعي في البحث العلمي، بدءًا من مرحلة تصميم البحث وجمع البيانات، وصولًا إلى كتابة النتائج والنشر الأكاديمي، فاستعامة الباحث بأدوات الذكاء الاصطناعي ليس أمر غير أخلاقي ولكنه بات اليوم أداة لتعزيز مهارات الباحث ودفعها إلى لتصبح في أفضل صورة ممكنه، ولكن المهم هنا هو أن يوضح الباحث المواضع التي كان الذكاء الاصطناعي شريك له بها.
أبرز ما يميز هذا الدليل أنه لا ينظر إلى الذكاء الاصطناعي كأداة محايدة، بل كقوة معرفية تحتاج إلى حوكمة رشيدة؛ فقد ألزم الباحثين بالإفصاح الكامل عن أي استخدام للأدوات التوليدية مثل: ChatGPT أو DALL·E، مؤكدًا على ضرورة المراجعة النقدية لمخرجاتها، وتحمل الباحث للمسؤولية الكاملة عن دقة وأصالة ما يُنشر وهو ما يحمي البحث العلمي من عملية الفبركة المقصودة أو غير المقصودة التي تنتج عن مخرجات الذكاء الاصطناعي غير المنقحة، أو بسبب عدم وعي الباحث بهندسة الأوامر. كما شدد على إنشاء لجان أخلاقيات للذكاء الاصطناعي داخل الجامعات، لمراجعة الأبحاث التي تستعين بهذه الأدوات وضمان توافقها مع القيم الإنسانية والأطر القانونية، وهو ما ينقلنا من نقطة الإنكار إلى الاستخدام المقنن الملزم بالمعايير.
ويؤسس الدليل كذلك لثقافة جديدة من الشفافية والمساءلة، تضمن نزاهة العملية البحثية وتحفظ مكانة الإنسان كمبدع ومفكر، لا كمستهلك لتقنيات جاهزة. فالفارق الجوهري الذي يضعه الدليل بين "المساعدة التقنية" و"الإنتاج العلمي" يذكّرنا بأن الذكاء الاصطناعي يجب أن يكون معينًا للفكر لا بديلاً عنه.
إن هذا الجهد المؤسسي المتكامل يعيد رسم علاقة الباحث بالتكنولوجيا، ويؤسس لنهج وطني في التعامل مع الذكاء الاصطناعي يقوم على الأخلاقيات والحوكمة والشفافية. إنه ليس مجرد دليل تنظيمي، بل خطوة استراتيجية تُرسّخ لمستقبل تكون فيه الجامعات المصرية نموذجًا في الاستخدام الأخلاقي والمستنير للذكاء الاصطناعي في البحث العلمي. ويحمينا من أن نتغافل أو نغض البصر عن إمكانات الذكاء الاصطناعي الهائلة في مجال البحث العلمي، أو الاستعانة به بدون الإفصاح الصريح عن هذا الأمر، وصولًا إلى التأكدي على دور الباحث العلمي والأخلاقي في مراجعة كافة مخرجات الذكاء الاصطناعي وجعله المسؤول والمحاسب على نتائجة.