رأي: إليك ما هو معرض للخطر إذا لم تعالج شركات التكنولوجيا الكبرى محتوى الذكاء الاصطناعي المخادع
تاريخ النشر: 26th, February 2024 GMT
تيموثي كار هو مدير في Free Press، منظمة غير حزبية وغير ربحية تدعو إلى نظام إعلامي أكثر عدلاً وديمقراطية. الآراء الواردة أدناه تعبر عن رأي الكاتب ولا تعكس بالضرورة رأي شبكة CNN.
وافقت 20 منصة تكنولوجية، قبل حوالي أسبوع، على تصنيف وتقليص المعلومات المضللة التي ينتجها الذكاء الاصطناعي والتي يتم نشرها عبر الإنترنت لخداع الناخبين خلال عام انتخابي مزدحم.
وتعهدوا بتقديم "ردود سريعة ومتناسبة" على محتوى الذكاء الاصطناعي المخادع حول الانتخابات، بما في ذلك مشاركة المزيد من المعلومات حول "الطرق التي يمكن للمواطنين من خلالها حماية أنفسهم من التلاعب أو الخداع".
هذا الالتزام الطوعي، الموقع من قبل غوغل، مايكروسوفت، ميتا، "أوبن أيه آي"، تيك توك و"إكس"، تويتر سابقا، من بين شركات أخرى، لا يحظر تمامًا استخدام ما يسمى بخاصية "التزييف العميق" (Deep Fake) - مقاطع فيديو أو مقاطع صوتية زائفة - للمرشحين والقادة وغيرهم من الشخصيات العامة المؤثرة. كما أن المنصات لا توافق على اعادة الفرق الكبيرة التي كانت موجودة لديها لحماية نزاهة الانتخابات في عام 2020. وحتى عند تلك المستويات السابقة، كافحت هذه الفرق لوقف انتشار المعلومات المضللة حول نتيجة الانتخابات، مما ساعد على تأجيج العنف في مبنى الكابيتول الأمريكي بينما كان يستعد الكونغرس للتصديق على فوز الرئيس جو بايدن.
ردًا على ذلك، تعهدت المنصات بوضع توقعات عالية في عام 2024 حول كيفية "إدارة المخاطر الناشئة عن محتوى الذكاء الاصطناعي الخادع المرتبط بالانتخابات"، وفقًا للاتفاقية المشتركة. وستسترشد أعمالهم بعدة مبادئ، بما في ذلك الوقاية والكشف والتقييم والتوعية العامة.
إذا كانت المنصات ترغب في منع تكرار ما حدث في عام 2020، فيتعين عليها أن تفعل المزيد الآن بعد أن أصبح بإمكان التكنولوجيا خداع الناخبين بهذه الصور المطابقة الخادعة التي يمكن تصديقها. وعليهم أن يطابقوا تعهداتهم بأداء أفضل في عام 2024 مع التنفيذ الفعلي وفضح الزيف الذي يمكن توثيقه ومشاركته مع الجمهور، وهو أمر فشلوا في القيام به بأي اتساق في الماضي.
في ديسمبر/كانون الأول، وجدت "فري برس" أنه في الفترة بين نوفمبر/تشرين الثاني 2022 ونوفمبر/تشرين الثاني 2023، قامت "ميتا" و"إكس" و"يوتيوب" بإلغاء ما مجموعه 17 سياسة مهمة عبر منصاتهم. وشمل ذلك التراجع عن سياسات المعلومات الخاطئة المتعلقة بالانتخابات المصممة للحد من محتوى "الأكذوبة الكبيرة" حول تصويت عام 2020. خلال الفترة الزمنية نفسها تقريبًا، قامت شركات غوغل وميتا وإكس مجتمعة بتسريح ما يقرب من 40 ألف موظف، مع حدوث تخفيضات كبيرة في فئات الإشراف على المحتوى والثقة والسلامة. في ذلك الوقت، وصفت المنصات التخفيضات في عدد الموظفين بأنها ضرورية لمواءمة شركاتها مع "واقع اقتصادي مختلف" (غوغل) أو لأن النفقات الرأسمالية السابقة "لم تسر كما هو متوقع" (ميتا).
يؤدي هذا التراجع إلى تعزيز قدر أقل من المساءلة عبر المنصات البارزة، حيث تدير شركات التكنولوجيا ظهرها لسنوات من الأدلة التي تشير إلى الدور الضخم الذي تلعبه في تشكيل الخطاب العام الذي يؤثر على المشاركة المدنية والديمقراطية. ومن المرجح أن يتزايد دورها كقنوات للمعلومات المضللة مع تزايد إتاحة أدوات الذكاء الاصطناعي المتطورة اللازمة لإنشاء صور مزيفة للسياسيين على نطاق أوسع لمستخدمي وسائل التواصل الاجتماعي. وبدون قيام المنصات بإنفاذ هذه القواعد بشكل واضح وحتى قواعد أقوى ضد انتشار معلومات مضللة للناخبين، سنواجه المزيد من الجهود عالية التقنية لاختطاف الانتخابات في جميع أنحاء العالم.
إن الأمر يحدث بالفعل. في العام الماضي، في سباق رئاسة بلدية شيكاغو، تم تداول تسجيل صوتي مزيف يهدف إلى تقليد المرشح بول فالاس على "إكس". وادعى التسجيل الصوتي كذبًا أن فالاس كان يدعم عنف الشرطة في المدينة.
وفي نهاية عام 2023، حثت Free Press شركات مثل غوغل وميتا وإكس على تنفيذ مجموعة مفصلة من حواجز الحماية ضد إساءة الاستخدام المتفشية لأدوات الذكاء الاصطناعي خلال عام الانتخابات 2024. ويشمل ذلك إعادة الاستثمار في أناس حقيقيين، وخاصة أولئك اللازمين لحماية الناخبين، والإشراف على المحتوى. ويجب عليها أيضًا أن تصبح أكثر شفافية من خلال تبادل بيانات أساسية بانتظام مع الباحثين والمشرعين والصحفيين.
وفي الوقت نفسه، طالبنا المشرعين بوضع قواعد واضحة ضد إساءة استخدام تكنولوجيا الذكاء الاصطناعي، خاصة في ضوء الاستخدام المتزايد للتزييف العميق في الولايات المتحدة وخارجها. يتضمن ذلك إصدار قوانين تتطلب من منصات التكنولوجيا نشر تقارير شفافية منتظمة حول أدوات الفحص والإشراف الخاصة بالذكاء الاصطناعي والكشف عن عملية صنع القرار عند إزالة الإعلانات السياسية المشكوك فيها.
لقد كان هناك الكثير من النشاط حول هذا الموضوع في الكونغرس، بما في ذلك العديد من الإحاطات والمنتديات وجلسات الاستماع، ولم يحقق سوى عدد قليل جدًا من النتائج القابلة للتنفيذ. وقد قدم أعضاء مجلس الشيوخ والنواب العشرات من مشاريع القوانين - بعضها جيد، وبعضها سيئ - ولكن لم يصل أي منها إلى التصويت. وفي الوقت نفسه، تتدخل لجنة التجارة الفيدرالية لملء الفراغ التنظيمي، حيث اقترحت الأسبوع الماضي قاعدة جديدة تجعل من غير القانوني استخدام الذكاء الاصطناعي لانتحال شخصية أي شخص، بما في ذلك المسؤولين المنتخبين. قد تقوم الوكالة بالتصويت على قاعدة جديدة في وقت مبكر من فصل الربيع بعد دعوة ومراجعة التعليقات العامة حول هذه القضية.
مع الاستخدام واسع النطاق للذكاء الاصطناعي، تغير مشهد الإنترنت بشكل كبير منذ عام 2020. ولكن الحقيقة تظل: لا يمكن للديمقراطية أن تستمر من دون مصادر موثوقة للأخبار والمعلومات الدقيقة. بعد تصويت عام 2020، هناك عواقب خطيرة وواقعية عندما تتراجع شركات المنصات عن التزاماتها باستئصال المعلومات المضللة.
ويجب أن تكون التعهدات الطوعية أكثر من مجرد ممارسة للعلاقات العامة. فما لم تعمل الشركات بشكل دائم على استعادة فرق نزاهة الانتخابات وفرض القواعد فعليا ضد إساءة الاستخدام المتفشية لأدوات الذكاء الاصطناعي، فإن الديمقراطية في جميع أنحاء العالم يمكن أن تظل على المحك.
نشر الاثنين، 26 فبراير / شباط 2024تابعونا عبرسياسة الخصوصيةشروط الخدمةملفات تعريف الارتباطخيارات الإعلاناتCNN الاقتصاديةمن نحنالأرشيف© 2024 Cable News Network. A Warner Bros. Discovery Company. All Rights Reserved.المصدر: CNN Arabic
كلمات دلالية: الذکاء الاصطناعی بما فی ذلک فی عام عام 2020
إقرأ أيضاً:
الذكاء الاصطناعي.. إلى أين يقود العالم؟
تحوّل الذكاء الاصطناعي في العقود الأخيرة من فكرة خيالية ظهرت في روايات وأفلام الخيال العلمي إلى تقنية تحيط بنا في كل مكان، وواقع ملموس يؤثر في حياتنا اليومية.
من الترجمة الفورية إلى السيارات ذاتية القيادة، ومن التنبؤ بالأمراض إلى الروبوتات التي تتفاعل مع البشر، بات الـ(AI) قوة تقنية تغير ملامح العالم بسرعة غير مسبوقة.
وتُظهر بيانات شركة "OpenAI" أن نموذج "GPT-4" يستخدمه أكثر من 100 مليون شخص أسبوعياً.
من البداية إلى اليوم
ظهر مصطلح الذكاء الاصطناعي لأول مرة في منتصف القرن العشرين، وكان يُنظر إليه آنذاك كهدف بعيد المنال.
لكن اليوم، وبفضل التطورات الكبيرة في قدرات الحوسبة وتوفر البيانات الضخمة، تمكن الباحثون من بناء أنظمة ذكية قادرة على التعلم، والتكيف، واتخاذ قرارات معقدة مشابهة إلى حد كبير قدرات العقل البشري.
الأنظمة الحديثة لا تقتصر على أداء مهام محددة مسبقاً، بل يمكنها تحليل كميات هائلة من المعلومات، واكتشاف الأنماط، وحتى ابتكار محتوى جديد مثل النصوص والوسائط المتعددة.
وأثبتت النماذج مثل "ChatGPT" و"Gemini" أنها قادرة على توليد نصوص تفاعلية وإبداعية، تُغيّر قواعد اللعبة في مجالات متعددة.
أين وصل الذكاء الاصطناعي الآن؟
يتم تطبيق الذكاء الاصطناعي حالياً في شتى المجالات، من الرعاية الصحية حيث يُستخدم في تشخيص الأمراض بدقة متزايدة، إلى التعليم حيث يقدم دعماً مخصصاً للطلاب، كما أصبح عنصراً رئيسياً في الصناعات الثقيلة، وتحليل البيانات المالية، وخدمات العملاء، وغيرها.
التعلم العميق والتعلم الآلي ساعدا على تطوير أنظمة تفهم اللغة الطبيعية وتترجمها، وتتعرف على الصور والأصوات، مما أتاح تطوير مساعدات رقمية ذكية وروبوتات قادرة على العمل بجانب الإنسان.
الذكاء الاصطناعي العام (AGI).. الحلم المخيف
يتحدث العلماء والمختصون عن مفهوم الذكاء الاصطناعي العام (Artificial general intelligence)، وهو الذكاء الذي يستطيع أداء أي مهمة عقلية يقوم بها الإنسان.
رغم أن (AGI) ما زال هدفاً بعيد المدى بحسب خبراء، يعتقد إيلون ماسك مالك شركة "إكس آيه آي" للذكاء الاصطناعي، أنه سيصبح حقيقة بحلول 2029.
وفي ظل التقدم المتسارع الذي نعيشه الآن، يتم طرح تساؤلات حول مدى قربنا من بناء أنظمة تستطيع التفكير والإبداع والتعلم بشكل مستقل.
ويمكن لهذا النوع من الذكاء أن يحدث ثورة حقيقية في حل المشكلات الكبرى مثل التغير المناخي، الأمراض المستعصية، والابتكارات العلمية، إلا أنه يثير في الوقت نفسه مخاوف كبيرة تتعلق بالسيطرة عليه، وتأثيره على سوق العمل والحياة الاجتماعية.
التحديات والاعتبارات الأخلاقية
بينما يستمر الذكاء الاصطناعي في التوسع، تتصاعد المخاوف حول خصوصية البيانات، التحيزات الخوارزمية، واستخدامه في مجالات حساسة مثل الهجمات السيبرانية والحروب، هناك ضرورة ملحة لوضع أطر قانونية وأخلاقية تنظم تطوير واستخدام هذه التقنيات، للحفاظ على حقوق الأفراد والمجتمعات.
كما يبقى السؤال الأهم: كيف يمكن للإنسان والذكاء الاصطناعي أن يتعايشا ويتكاملا بشكل آمن وفعال، دون أن يفقد الإنسان دوره الأساسي في اتخاذ القرارات ومراقبة هذه الأنظمة؟
بين الحلم والواقع
الذكاء الاصطناعي ليس مجرد تقنية جديدة، بل هو تحول شامل يعيد تشكيل مستقبل البشرية، ومع كل خطوة نتقدمها نحو تقنيات أكثر تطوراً، نواجه مسؤولية كبيرة لضمان أن هذه الأدوات تخدم مصلحة الإنسان وتحترم القيم الإنسانية.
إلى أين سيقودنا الذكاء الاصطناعي؟ الإجابة لا تزال مفتوحة، وتعتمد كثيراً على كيفية تعاملنا اليوم مع هذه التقنية، وكيف نضع لها قواعد واضحة تساعد في الاستفادة منها بأمان وعدالة.
أمجد الأمين (أبوظبي)