بريطانيا تراقب محتوى تيك توك لضمان رفاهية الملك
تاريخ النشر: 5th, November 2023 GMT
نفّذ القصر الملكي في بريطانيا تجربة نظام مراقبة ذكي جديد، لأول مرة، خلال زيارة خارجية للملك تشارلز، من أجل رصد تفاعلات ومنشورات مستخدمي منصات التواصل، للمساهمة في اتخاذ قرارات سريعة آنذاك.
وذكرت صحيفة "ديلي مايلي"، اليوم الأحد، أن مساعدي القصر استخدموا الذكاء الاصطناعي لأول مرة، خلال الزيارة الملكية إلى كينيا، لمراقبة شعبية ملك تشارلز على منصات التواصل.
وتم استخدام برمجية تدعى Digimind، التي تعمل عبر جميع المنصات الرئيسية، بما في ذلك تيك توك، لتصنيف التعليقات إلى 3 فئات: سلبية، محايدة وإيجابية.
ويتلقى القصر كل يوم ملخصاً لتقييم شعبية الملك في كينيا، بريطانيا وفي جميع أنحاء العالم، كما يرصد النظام الجديد التعليقات حول ما إذا كان يجب على الملك أن يعتذر رسمياً عن الماضي الاستعماري لبريطانيا، والذي نظر إليه المساعدون عن كثب بعد خطاب الملك الأخير.
ويقول أحد العاملين على هذا النظام إن "الذكاء الاصطناعي يمنحنا تقييمات بشكل آني حول كيفية سير الزيارة، ويمكننا من اتخاذ قرارات سريعة، في حال دعت الحاجة. كما يظهر تأثير الزيارات الملكية بشكل ملموس".
لم يعتذر.. الملك تشارلز يأسف على الانتهاكات الاستعمارية في #كينياhttps://t.co/HmTtMgUxR2
— 24.ae | منوعات (@24Entertain) November 1, 2023وترى الصحيفة أنه في المستقبل، قد يتمكن مساعدو الملك من ضبط جدول الزيارات الملكية، حسب تحذيرات الذكاء الاصطناعي، في حال كان لأي من الأحداث صدى جدلياً، أو لم يلق إعجاباً على وسائل التواصل الاجتماعي.
واختتمت الصحيفة بالإشارة إلى أنه مع انتهاء زيارة الملك إلى كينيا، سوف يتم تقدير ما إذا كان يجب توسيع تجربة الذكاء الاصطناعي، بالإضافة إلى فحص مدى فعالية التجربة وكفاءتها.
المصدر: موقع 24
كلمات دلالية: التغير المناخي محاكمة ترامب أحداث السودان سلطان النيادي مانشستر سيتي غزة وإسرائيل الحرب الأوكرانية عام الاستدامة الملك تشارلز الثالث بريطانيا كينيا الذکاء الاصطناعی
إقرأ أيضاً:
خلال محاكمة.. الذكاء الاصطناعي يحيل إلى مرجع غير موجود
في محاكمة بين "أنثروبيك" للذكاء الاصطناعي وأصحاب حقوق ملكية فكرية، تضمنت مذكرة قضائية للدفاع عن الشركة الناشئة إشارة إلى مرجع وهمي لا وجود له.
بدأ الذكاء الاصطناعي يغير تدريجيا طريقة العمل في المجال القضائي. فبينما تسهّل هذه الأداة البحث في السوابق القضائية، يجب أن تخضع مخرجاتها للمراقبة بسبب قدرتها على الهلوسة.
وقد برز هذا مؤخرًا في محاكمة بين شركة "أنثروبيك" للذكاء الاصطناعي وشركات موسيقية. في أكتوبر 2023، طلبت شركات موسيقى من القضاة الاتحاديين في ولاية كاليفورنيا حظر استخدام دليلها الموسيقي لتدريب نماذج الذكاء الاصطناعي الخاصة بشركة "أنثروبيك".
رفض القضاة هذا الطلب في مارس 2025، معتبرين أنه لا يوجد دليل على ضرر لا يمكن إصلاحه. بعد ذلك، رفع المدعون دعوى قضائية أخرى تتعلق بانتهاك حقوق الطبع والنشر. تكمن إحدى نقاط الخلاف الرئيسية في هذه القضية في فحص حجم العينة المتفاعلة مع أداة "كلود" للذكاء الاصطناعي التابعة لشركة "أنثروبيك"، لتحديد وتيرة إعادة إنتاج الذكاء الاصطناعي لكلمات الأغاني المحمية أو توليدها.
مرجع وهمي
قدمت أوليفيا تشين، عالمة البيانات في شركة "أنثروبيك"، مذكرة إلى المحكمة تُجادل فيها بأن عينة من مليون تفاعل مستخدم كافية لتقديم "معدل انتشار معقول" لظاهرة نادرة: مستخدمو الإنترنت يبحثون عن كلمات الأغاني. وقدّرت أن هذه الحالة لا تُمثل سوى 0.01% من التفاعلات. وفي شهادتها، استشهدت بمقال أكاديمي نُشر في مجلة "الإحصائي الأميركي" تبيّن لاحقا أنه غير موجود.
طلب المدعون من المحكمة استدعاء أوليفيا تشين ورفض أقوالها بسبب الإحالة إلى هذا المراجع الزائف. ومع ذلك، منحت المحكمة شركة "أنثروبيك" وقتًا للتحقيق. وقد وصف محامي الشركة الناشئة الحادثة بأنها "خطأ بسيط في الاستشهاد"، وأقرّ بأن أداة "كلود" للذكاء الاصطناعي استُخدمت "لتنسيق ثلاثة مراجع ببليوغرافية على الأقل بشكل صحيح". وفي هذا السياق، اخترع الذكاء الاصطناعي مقالاً وهمياً، مع مؤلفين خاطئين لم يعملوا معًا قط.
تجنب أخطاء الذكاء الاصطناعي
تُسلّط هذه الحادثة الضوء على الانتشار المُقلق للأخطاء الناتجة عن الذكاء الاصطناعي في الإجراءات القانونية، وهي ظاهرة متنامية تُعرّض الشركات لمخاطر جسيمة، لا سيما عندما يعتمد محاموها على هذه الأدوات لجمع المعلومات وصياغة الوثائق القانونية.
يقول برايان جاكسون، مدير الأبحاث في مجموعة Info-Tech Research Group "خلق استخدام الذكاء الاصطناعي نوعًا من الكسل الذي أصبح مصدر قلق في المجال القانوني". ويضيف: "لا ينبغي استخدام أدوات الذكاء الاصطناعي كحل شامل لإنتاج الوثائق اللازمة للملفات القضائية".