عبر سدايا.. 6 خطوات لتقييم منتجك تبعًا لأخلاقيات الذكاء الاصطناعي
تاريخ النشر: 28th, November 2024 GMT
أكدت "سدايا" أنه يمكن لكل شخص تقييم منتجاته بسهولة عبر خطوات بسيطة للتقييم الذاتي لأخلاقيات الذكاء الاصطناعي في "سدايا".
ويمكن الحصول على ملف بمبادئ أخلاقيات الذكاء الاصطناعي من خلال هذا الرابط.
أخبار متعلقة أكثر من 1000 نجم نابض تشكل نظامًا للملاحة في الفضاء.. ما القصة؟مستشفى الدكتور سليمان الحبيب بالخبر يجرى عملية "تحويل مسار تصحيحية معقدة" تنهي معاناة ستيني تجاوز وزنه "250" كجموتمكّن هذه الأداة المساعدة لجهات التحكم من إجراء تحليل شامل ومنهجي لمدى التزامها بالمعايير الأخلاقية في تطوير وتطبيق تقنيات الذكاء الاصطناعي.
2- املأ المعلومات وأضف وصفًا للمنتج.
3- حدد درجة التأثير على المنتج.
قيّم منتجاتك بسهولة عبر خطوات بسيطة للتقييم الذاتي لأخلاقيات الذكاء الاصطناعي في #سدايا من خلال الرابط أدناه.https://t.co/vxZccPMOrh pic.twitter.com/UjqIKzVCMq— SDAIA (@SDAIA_SA) November 27, 2024
4- أجب عن كل سؤال (1 أقل درجة إلى 5 أعلى درجة).
5- أدخل رمز التحقق واضغط على (حفظ وإرسال).
6- احصل على التقرير النهائي لتقييم نضج منتجك.
ويمكنك إعادة تقييم منتجاتك، وإصدار التقرير بعدد غير محدود من المرات.
المصدر: صحيفة اليوم
كلمات دلالية: اليوم الوطني 94 اليوم الوطني 94 اليوم الوطني 94 اليوم الدمام المملكة العربية السعودية أخبار السعودية سدايا أخلاقيات الذكاء الاصطناعي الذکاء الاصطناعی
إقرأ أيضاً:
خلال محاكمة.. الذكاء الاصطناعي يحيل إلى مرجع غير موجود
في محاكمة بين "أنثروبيك" للذكاء الاصطناعي وأصحاب حقوق ملكية فكرية، تضمنت مذكرة قضائية للدفاع عن الشركة الناشئة إشارة إلى مرجع وهمي لا وجود له.
بدأ الذكاء الاصطناعي يغير تدريجيا طريقة العمل في المجال القضائي. فبينما تسهّل هذه الأداة البحث في السوابق القضائية، يجب أن تخضع مخرجاتها للمراقبة بسبب قدرتها على الهلوسة.
وقد برز هذا مؤخرًا في محاكمة بين شركة "أنثروبيك" للذكاء الاصطناعي وشركات موسيقية. في أكتوبر 2023، طلبت شركات موسيقى من القضاة الاتحاديين في ولاية كاليفورنيا حظر استخدام دليلها الموسيقي لتدريب نماذج الذكاء الاصطناعي الخاصة بشركة "أنثروبيك".
رفض القضاة هذا الطلب في مارس 2025، معتبرين أنه لا يوجد دليل على ضرر لا يمكن إصلاحه. بعد ذلك، رفع المدعون دعوى قضائية أخرى تتعلق بانتهاك حقوق الطبع والنشر. تكمن إحدى نقاط الخلاف الرئيسية في هذه القضية في فحص حجم العينة المتفاعلة مع أداة "كلود" للذكاء الاصطناعي التابعة لشركة "أنثروبيك"، لتحديد وتيرة إعادة إنتاج الذكاء الاصطناعي لكلمات الأغاني المحمية أو توليدها.
مرجع وهمي
قدمت أوليفيا تشين، عالمة البيانات في شركة "أنثروبيك"، مذكرة إلى المحكمة تُجادل فيها بأن عينة من مليون تفاعل مستخدم كافية لتقديم "معدل انتشار معقول" لظاهرة نادرة: مستخدمو الإنترنت يبحثون عن كلمات الأغاني. وقدّرت أن هذه الحالة لا تُمثل سوى 0.01% من التفاعلات. وفي شهادتها، استشهدت بمقال أكاديمي نُشر في مجلة "الإحصائي الأميركي" تبيّن لاحقا أنه غير موجود.
طلب المدعون من المحكمة استدعاء أوليفيا تشين ورفض أقوالها بسبب الإحالة إلى هذا المراجع الزائف. ومع ذلك، منحت المحكمة شركة "أنثروبيك" وقتًا للتحقيق. وقد وصف محامي الشركة الناشئة الحادثة بأنها "خطأ بسيط في الاستشهاد"، وأقرّ بأن أداة "كلود" للذكاء الاصطناعي استُخدمت "لتنسيق ثلاثة مراجع ببليوغرافية على الأقل بشكل صحيح". وفي هذا السياق، اخترع الذكاء الاصطناعي مقالاً وهمياً، مع مؤلفين خاطئين لم يعملوا معًا قط.
تجنب أخطاء الذكاء الاصطناعي
تُسلّط هذه الحادثة الضوء على الانتشار المُقلق للأخطاء الناتجة عن الذكاء الاصطناعي في الإجراءات القانونية، وهي ظاهرة متنامية تُعرّض الشركات لمخاطر جسيمة، لا سيما عندما يعتمد محاموها على هذه الأدوات لجمع المعلومات وصياغة الوثائق القانونية.
يقول برايان جاكسون، مدير الأبحاث في مجموعة Info-Tech Research Group "خلق استخدام الذكاء الاصطناعي نوعًا من الكسل الذي أصبح مصدر قلق في المجال القانوني". ويضيف: "لا ينبغي استخدام أدوات الذكاء الاصطناعي كحل شامل لإنتاج الوثائق اللازمة للملفات القضائية".