رأي: إليك ما هو معرض للخطر إذا لم تعالج شركات التكنولوجيا الكبرى محتوى الذكاء الاصطناعي المخادع
تاريخ النشر: 26th, February 2024 GMT
تيموثي كار هو مدير في Free Press، منظمة غير حزبية وغير ربحية تدعو إلى نظام إعلامي أكثر عدلاً وديمقراطية. الآراء الواردة أدناه تعبر عن رأي الكاتب ولا تعكس بالضرورة رأي شبكة CNN.
وافقت 20 منصة تكنولوجية، قبل حوالي أسبوع، على تصنيف وتقليص المعلومات المضللة التي ينتجها الذكاء الاصطناعي والتي يتم نشرها عبر الإنترنت لخداع الناخبين خلال عام انتخابي مزدحم.
وتعهدوا بتقديم "ردود سريعة ومتناسبة" على محتوى الذكاء الاصطناعي المخادع حول الانتخابات، بما في ذلك مشاركة المزيد من المعلومات حول "الطرق التي يمكن للمواطنين من خلالها حماية أنفسهم من التلاعب أو الخداع".
هذا الالتزام الطوعي، الموقع من قبل غوغل، مايكروسوفت، ميتا، "أوبن أيه آي"، تيك توك و"إكس"، تويتر سابقا، من بين شركات أخرى، لا يحظر تمامًا استخدام ما يسمى بخاصية "التزييف العميق" (Deep Fake) - مقاطع فيديو أو مقاطع صوتية زائفة - للمرشحين والقادة وغيرهم من الشخصيات العامة المؤثرة. كما أن المنصات لا توافق على اعادة الفرق الكبيرة التي كانت موجودة لديها لحماية نزاهة الانتخابات في عام 2020. وحتى عند تلك المستويات السابقة، كافحت هذه الفرق لوقف انتشار المعلومات المضللة حول نتيجة الانتخابات، مما ساعد على تأجيج العنف في مبنى الكابيتول الأمريكي بينما كان يستعد الكونغرس للتصديق على فوز الرئيس جو بايدن.
ردًا على ذلك، تعهدت المنصات بوضع توقعات عالية في عام 2024 حول كيفية "إدارة المخاطر الناشئة عن محتوى الذكاء الاصطناعي الخادع المرتبط بالانتخابات"، وفقًا للاتفاقية المشتركة. وستسترشد أعمالهم بعدة مبادئ، بما في ذلك الوقاية والكشف والتقييم والتوعية العامة.
إذا كانت المنصات ترغب في منع تكرار ما حدث في عام 2020، فيتعين عليها أن تفعل المزيد الآن بعد أن أصبح بإمكان التكنولوجيا خداع الناخبين بهذه الصور المطابقة الخادعة التي يمكن تصديقها. وعليهم أن يطابقوا تعهداتهم بأداء أفضل في عام 2024 مع التنفيذ الفعلي وفضح الزيف الذي يمكن توثيقه ومشاركته مع الجمهور، وهو أمر فشلوا في القيام به بأي اتساق في الماضي.
في ديسمبر/كانون الأول، وجدت "فري برس" أنه في الفترة بين نوفمبر/تشرين الثاني 2022 ونوفمبر/تشرين الثاني 2023، قامت "ميتا" و"إكس" و"يوتيوب" بإلغاء ما مجموعه 17 سياسة مهمة عبر منصاتهم. وشمل ذلك التراجع عن سياسات المعلومات الخاطئة المتعلقة بالانتخابات المصممة للحد من محتوى "الأكذوبة الكبيرة" حول تصويت عام 2020. خلال الفترة الزمنية نفسها تقريبًا، قامت شركات غوغل وميتا وإكس مجتمعة بتسريح ما يقرب من 40 ألف موظف، مع حدوث تخفيضات كبيرة في فئات الإشراف على المحتوى والثقة والسلامة. في ذلك الوقت، وصفت المنصات التخفيضات في عدد الموظفين بأنها ضرورية لمواءمة شركاتها مع "واقع اقتصادي مختلف" (غوغل) أو لأن النفقات الرأسمالية السابقة "لم تسر كما هو متوقع" (ميتا).
يؤدي هذا التراجع إلى تعزيز قدر أقل من المساءلة عبر المنصات البارزة، حيث تدير شركات التكنولوجيا ظهرها لسنوات من الأدلة التي تشير إلى الدور الضخم الذي تلعبه في تشكيل الخطاب العام الذي يؤثر على المشاركة المدنية والديمقراطية. ومن المرجح أن يتزايد دورها كقنوات للمعلومات المضللة مع تزايد إتاحة أدوات الذكاء الاصطناعي المتطورة اللازمة لإنشاء صور مزيفة للسياسيين على نطاق أوسع لمستخدمي وسائل التواصل الاجتماعي. وبدون قيام المنصات بإنفاذ هذه القواعد بشكل واضح وحتى قواعد أقوى ضد انتشار معلومات مضللة للناخبين، سنواجه المزيد من الجهود عالية التقنية لاختطاف الانتخابات في جميع أنحاء العالم.
إن الأمر يحدث بالفعل. في العام الماضي، في سباق رئاسة بلدية شيكاغو، تم تداول تسجيل صوتي مزيف يهدف إلى تقليد المرشح بول فالاس على "إكس". وادعى التسجيل الصوتي كذبًا أن فالاس كان يدعم عنف الشرطة في المدينة.
وفي نهاية عام 2023، حثت Free Press شركات مثل غوغل وميتا وإكس على تنفيذ مجموعة مفصلة من حواجز الحماية ضد إساءة الاستخدام المتفشية لأدوات الذكاء الاصطناعي خلال عام الانتخابات 2024. ويشمل ذلك إعادة الاستثمار في أناس حقيقيين، وخاصة أولئك اللازمين لحماية الناخبين، والإشراف على المحتوى. ويجب عليها أيضًا أن تصبح أكثر شفافية من خلال تبادل بيانات أساسية بانتظام مع الباحثين والمشرعين والصحفيين.
وفي الوقت نفسه، طالبنا المشرعين بوضع قواعد واضحة ضد إساءة استخدام تكنولوجيا الذكاء الاصطناعي، خاصة في ضوء الاستخدام المتزايد للتزييف العميق في الولايات المتحدة وخارجها. يتضمن ذلك إصدار قوانين تتطلب من منصات التكنولوجيا نشر تقارير شفافية منتظمة حول أدوات الفحص والإشراف الخاصة بالذكاء الاصطناعي والكشف عن عملية صنع القرار عند إزالة الإعلانات السياسية المشكوك فيها.
لقد كان هناك الكثير من النشاط حول هذا الموضوع في الكونغرس، بما في ذلك العديد من الإحاطات والمنتديات وجلسات الاستماع، ولم يحقق سوى عدد قليل جدًا من النتائج القابلة للتنفيذ. وقد قدم أعضاء مجلس الشيوخ والنواب العشرات من مشاريع القوانين - بعضها جيد، وبعضها سيئ - ولكن لم يصل أي منها إلى التصويت. وفي الوقت نفسه، تتدخل لجنة التجارة الفيدرالية لملء الفراغ التنظيمي، حيث اقترحت الأسبوع الماضي قاعدة جديدة تجعل من غير القانوني استخدام الذكاء الاصطناعي لانتحال شخصية أي شخص، بما في ذلك المسؤولين المنتخبين. قد تقوم الوكالة بالتصويت على قاعدة جديدة في وقت مبكر من فصل الربيع بعد دعوة ومراجعة التعليقات العامة حول هذه القضية.
مع الاستخدام واسع النطاق للذكاء الاصطناعي، تغير مشهد الإنترنت بشكل كبير منذ عام 2020. ولكن الحقيقة تظل: لا يمكن للديمقراطية أن تستمر من دون مصادر موثوقة للأخبار والمعلومات الدقيقة. بعد تصويت عام 2020، هناك عواقب خطيرة وواقعية عندما تتراجع شركات المنصات عن التزاماتها باستئصال المعلومات المضللة.
ويجب أن تكون التعهدات الطوعية أكثر من مجرد ممارسة للعلاقات العامة. فما لم تعمل الشركات بشكل دائم على استعادة فرق نزاهة الانتخابات وفرض القواعد فعليا ضد إساءة الاستخدام المتفشية لأدوات الذكاء الاصطناعي، فإن الديمقراطية في جميع أنحاء العالم يمكن أن تظل على المحك.
نشر الاثنين، 26 فبراير / شباط 2024تابعونا عبرسياسة الخصوصيةشروط الخدمةملفات تعريف الارتباطخيارات الإعلاناتCNN الاقتصاديةمن نحنالأرشيف© 2024 Cable News Network. A Warner Bros. Discovery Company. All Rights Reserved.المصدر: CNN Arabic
كلمات دلالية: الذکاء الاصطناعی بما فی ذلک فی عام عام 2020
إقرأ أيضاً:
فيديو.. مباراة تنس بلا نهاية بين روبوتات غوغل لتدريب الذكاء الاصطناعي
في صيف 2010، خاض لاعبا التنس جون إيسنر ونيكولا ماهو واحدة من أكثر المواجهات استنزافًا في تاريخ ويمبلدون، فقد استمرت المباراة 11 ساعة على مدار 3 أيام. وبعد أكثر من عقد، يخوض خصمان من نوع آخر مباراة لا تقل عنادًا، لكن هذه المرة داخل مختبرات ديب مايند التابعة لغوغل، وبلا جمهور.
فبحسب تقرير لموقع بوبيلار سينس (Popular Science)، تتحرك ذراعان روبوتيتان في مباراة تنس طاولة بلا نهاية في مركز الأبحاث جنوب لندن، ضمن مشروع أطلقته ديب مايند عام 2022 لتطوير قدرات الذكاء الاصطناعي عبر التنافس الذاتي المستمر. الهدف لا يقتصر على تحسين مهارات اللعب، بل يتعداه إلى تدريب خوارزميات قادرة على التكيف مع بيئات معقدة، مثل تلك التي تواجهها الروبوتات في المصانع أو المنازل.
من مناوشة بلا فائز إلى تدريب بلا توقففي بدايات المشروع، اقتصر التمرين على ضربات تبادلية بسيطة بين الروبوتين، من دون سعي لتحقيق نقاط. ومع الوقت، وباستخدام تقنيات التعلم المعزز، أصبح كل روبوت يتعلم من خصمه ويطوّر إستراتيجياته.
وعندما أُضيف هدف الفوز بالنقطة، واجه النظام صعوبة في التكيف، إذ كانت الذراعان تفقدان بعض الحركات التي أتقنتاها سابقًا. لكن عند مواجهة لاعبين بشريين، بدأت تظهر بوادر تقدم لافت، بفضل تنوع أساليب اللعب التي وفّرت فرص تعلم أوسع.
ووفق الباحثين، فازت الروبوتات بنسبة 45% من أصل 29 مباراة ضد بشر، وتفوقت على لاعبين متوسطين بنسبة بلغت 55%. فالأداء الإجمالي يُصنّف في مستوى لاعب هاوٍ، لكنه يزداد تعقيدًا مع الوقت، خصوصًا مع إدخال تقنيات جديدة لمراقبة الأداء وتحسينه.
عندما يعلّم الفيديو الذكاء الاصطناعيالتحسينات لم تتوقف على التمرين الفعلي، إذ استخدم الباحثون نموذج جيمناي (Gemini) للرؤية واللغة من غوغل لتوليد ملاحظات من مقاطع الفيديو الخاصة بالمباريات.
ويمكن للروبوت الآن تعديل سلوكه بناء على أوامر نصيّة، مثل "اضرب الكرة إلى أقصى اليمين" أو "قرّب الشبكة". هذه التغذية الراجعة البصرية اللغوية تعزز قدرات الروبوت على اتخاذ قرارات دقيقة خلال اللعب.
إعلان تنس الطاولة بوابة لروبوتات المستقبلتُعد لعبة تنس الطاولة بيئة مثالية لاختبار الذكاء الاصطناعي، لما فيها من توازن بين السرعة والدقة واتخاذ القرار. وهي تتيح تدريب الروبوتات على مهارات تتجاوز مجرد الحركة، لتشمل التحليل والاستجابة في الوقت الحقيقي، وهي مهارات ضرورية للروبوتات المستقبلية في البيئات الواقعية.
ورغم أن الروبوتات المتقدمة ما زالت تتعثر في مهام بسيطة بالنسبة للبشر، مثل ربط الحذاء أو الكتابة، فإن التطورات الأخيرة -كنجاح ديب مايند في تعليم روبوت ربط الحذاء، أو نموذج "أطلس" الجديد الذي قدّمته بوسطن ديناميكس- تشير إلى تقارب تدريجي بين أداء الآلة والإنسان.
نحو ذكاء عام قابل للتكيفيرى خبراء ديب مايند أن هذا النهج في التعلم، القائم على المنافسة والتحسين الذاتي، قد يكون المفتاح لتطوير ذكاء اصطناعي عام متعدد الاستخدامات. والهدف النهائي هو تمكين الروبوتات من أداء مهام متنوعة، ليس فقط في بيئات صناعية بل أيضًا في الحياة اليومية، بأسلوب طبيعي وآمن.
حتى ذلك الحين، ستبقى ذراعا ديب مايند في مباراة مفتوحة، تتبادلان الكرات والمهارات، في طريق طويل نحو مستقبل روبوتي أكثر ذكاء ومرونة.