قرار طارئ من ميتا لمواجهة الذكاء الاصطناعي في انتخابات الاتحاد الأوروبي
تاريخ النشر: 27th, February 2024 GMT
قررت شركة ميتا، إنشاء مركز عمليات طارئ؛ لمعالجة المعلومات المضللة، وإساءة استخدام الذكاء الاصطناعي في الفترة التي تسبق انتخابات البرلمان الأوروبي المزمعة في يونيو 2024.
وقال ماركو بانسيني، رئيس شؤون الاتحاد الأوروبي في ميتا "مع اقتراب الانتخابات، سنقوم بتنشيط مركز العمليات الانتخابية لتحديد التهديدات المحتملة ووضع إجراءات التخفيف في الوقت الفعلي".
وأضاف بانشيني إن ميتا تعمل حاليا مع 26 منظمة مستقلة لتدقيق الحقائق عبر الاتحاد الأوروبي تغطي 22 لغة، وستضيف 3 شركاء جدد في بلغاريا وفرنسا وسلوفاكيا.
وستجرى انتخابات البرلمان الأوروبي في الفترة من 6 إلى 9 يونيو، وسيقوم مشرعوها البالغ عددهم 720، بالتعاون مع حكومات الاتحاد الأوروبي، بتمرير سياسات وقوانين جديدة للاتحاد الأوروبي. وفقًا لـ رويترز.
وستفتح ميتا ومايكروسوفت وقد وافقت OpenAI و17 شركة تقنية أخرى في وقت سابق من هذا الشهر على العمل معًا لمنع محتوى الذكاء الاصطناعي المخادع من التدخل في الانتخابات في جميع أنحاء العالم هذا العام.
وأكد بانشيني أن خبراء من الاستخبارات وعلوم البيانات والهندسة والأبحاث والعمليات وسياسة المحتوى والفرق القانونية في الشركة سيركزون على مكافحة المعلومات الخاطئة ومعالجة عمليات التأثير ومواجهة المخاطر المتعلقة بإساءة استخدام الذكاء الاصطناعي التوليدي.
المصدر: صدى البلد
كلمات دلالية: ميتا الذكاء الاصطناعي المعلومات المضللة مركز عمليات انتخابات البرلمان الأوروبي الاتحاد الأوروبي الاتحاد الأوروبی الذکاء الاصطناعی
إقرأ أيضاً:
5 حقائق عن عمل روبوتات الذكاء الاصطناعي
أميرة خالد
يستخدم الملايين من البشر روبوتات الدردشة المدعومة بـ الذكاء الاصطناعي في حياتهم اليومية، ومن أبرز روبوتات الذكاء الاصطناعي مثل ChatGPT و Google Gemini.
ومن أبرز الحقائق التي قد لا يعرفها البعض عن هذه الروبوتات أنها تمر بمراحل متعددة من التدريب، حيث تبدأ بمرحلة تُعرف بـ”ما قبل التدريب” (Pre-training)، حيث يتم تعليم النموذج توقع الكلمة التالية داخل كميات ضخمة من النصوص، هذا التدريب يمنحه فهماً عاماً للغة والمعلومات والمنطق، كما يتدخل بعدها “مُقيِّمون بشريون” لتوجيه النموذج نحو إجابات آمنة ومفيدة، فيما يُعرف بمرحلة “الضبط الأخلاقي” أو “المحاذاة” (Alignment)، وفي هذه المرحلة، يتم تصنيف الإجابات واختيار الأكثر حيادية وملاءمة، وهو ما يمنع النموذج من تقديم معلومات خطيرة أو مضللة.
وكما تعامل روبوت الذكاء الاصطناعي مع وحدات أصغر تُسمى “الرموز” أو Tokens، وقد تكون هذه رموزاً كاملة، أو أجزاء من كلمات، أو حتى تسلسلات عشوائية من الحروف، كما أنها تُعد أدوات “ثابتة المعرفة”، ولا تقوم بتحديث نفسها تلقائيًا.
كما أن هذه الروبوتات قد تهلوس أي تقدم معلومات غير صحيحة أو مختلقة ولكن بثقة كاملة. وذلك لأنها تركز على إنتاج نص مترابط أكثر من التركيز على دقته، لذا يُنصح باستخدام روبوتات الدردشة كنقطة انطلاق، وليس كمرجع نهائي للمعلومات.
كما تعتمد روبوتات الذكاء الاصطناعي على خاصية تُعرف بـ”سلسلة التفكير” (Chain of Thought). هذه الطريقة تُمكّن النموذج من حل المسألة خطوة بخطوة بدلاً من تقديم الإجابة مباشرة، كما تستعين هذه النماذج بآلة حاسبة داخلية قادرة على تنفيذ العمليات الرياضية الدقيقة. هذا المزج بين المنطق الداخلي والأدوات المساعدة يحسّن من كفاءة الحلول.