معلومات الوزراء: التقارير المزيفة تنتشر أسرع 10 مرات من الحقيقية
تاريخ النشر: 5th, June 2024 GMT
أصدر مركز المعلومات ودعم اتخاذ القرار بمجلس الوزراء، تحليلاً جديداً تناول من خلاله مخاطر المعلومات الخاطئة والمضللة على العالم، مشيراً إلى أن الإنترنت أصبح في الوقت الحالي المصدر الرئيس للأخبار والمعلومات للعديد من المواطنين في جميع أنحاء العالم، ومع تزايد التقنيات التكنولوجية الحديثة أصبح العالم معرضًا كل يوم لخطر أكبر من أي وقت مضى لمواجهة المعلومات الخاطئة والمعلومات المضللة، وتعد المعلومات الخاطئة المضللة من أهم المخاطر التي تهدد العالم خلال عام 2024، فوفقًا للمنتدى الاقتصادي العالمي تعتبر المعلومات المضللة المدعومة بالذكاء الاصطناعي الخطر الأكبر على مستوى العالم في العامين المقبلين، والخطر العالمي الخامس في السنوات العشر المقبلة.
وأشار المركز، إلى أن المعلومات الخاطئة معلومات غير دقيقة، في حين أن المعلومات المضللة هي محتوى كاذب عن عمد، يمكن استخدامها لنشر الدعاية وزرع الخوف والشك، وتعمل أدوات الذكاء الاصطناعي التوليدي على زيادة مشكلة المعلومات المضللة، حيث تسهل التقنيات الجديدة قيام أي شخص بإنشاء ونشر الصور ومقاطع الفيديو بشكل كبير أكثر من أي وقت مضى، وجعل من الصعب معرفة ما هو حقيقي أو ما هو غير حقيقي، لذا تمثل هذه التكنولوجيا مخاطر جسيمة، بالإضافة إلى الفرص.
وأضاف التحليل، أنه وفقًا لبعض التقديرات، قد يمثل قريبًا المحتوى الناتج عن الذكاء الاصطناعي 99% أو أكثر من جميع المعلومات الموجودة على الإنترنت، حيث ظهرت بالفعل الكثير من "المواقع الإخبارية" المليئة بمحتوى تم إنشاؤه آليًّا عن طريق الذكاء الاصطناعي، وحدد موقع NewsGuard المتخصص في مواجهة المعلومات المضللة حتى منتصف مايو 2024 ما يقرب من 831 موقعًا إخباريًّا ومعلوماتيًّا تم إنشاؤها بواسطة الذكاء الاصطناعي تعمل دون إشراف بشري، وتعمل هذه المواقع على نشر الأخبار غير الموثوق بها التي يُنشئها الذكاء الاصطناعي، والصور التي تنتجها مولدات الصور التي تعمل بالذكاء الاصطناعي.
في السياق ذاته، عندما يتعلق الأمر بانتشار المعلومات الخاطئة والمعلومات المضللة، فإن وسائل التواصل الاجتماعي تمثل سبب رئيس، فمع اتساع انتشار وسائل التواصل الاجتماعي زاد هذا الخطر، فبدلاً من الصحف أو البرامج المتخصصة، تقوم وسائل التواصل الاجتماعي بخلط الآراء والحقائق معًا، وكلما كانت القصة أكثر غرابة، كانت أكثر جذبا للانتباه.
وعلى الرغم من أن وسائل التواصل الاجتماعي كانت مصدر الأخبار الأقل ثقة على مستوى العالم منذ عام 2016، كشفت دراسة أن أكثر من 50% من مستخدمي الإنترنت المستجيبين في 23 دولة مختلفة يستخدمون وسائل التواصل الاجتماعي كوسيلة لمواكبة آخر التطورات، وغالبًا ما يكون المستهلكون الأصغر سنًا أكثر عرضة لخطر التعرض للأخبار المزيفة من الأجيال الأكبر سنًا بسبب استخدامهم العالي لوسائل التواصل الاجتماعي.
وأشار التحليل إلى أن الباحثون في معهد ماساتشوستس للتكنولوجيا وجدوا أن الأخبار المزيفة يمكن أن تنتشر بسرعة تصل إلى 10 مرات أسرع من التقارير الحقيقية على وسائل التواصل الاجتماعي. وعلى العكس فعند انتشار الأخبار المزيفة والمضللة على نطاق واسع، لا يتم تصحيحها بنفس المستوى التي انتشرت به، في الوقت الذي تشير فيه التقديرات أن 8 أو أكثر من كل 10 أمريكيين يحصلون على أخبارهم عبر وسائل التواصل الاجتماعي، بدلا من التلفزيون أو الراديو أو الأخبار الورقية.
بالإضافة إلى ذلك، أصبحت وسائل التواصل الاجتماعي تكافئ الأشخاص الذين يشاركون المحتوى بشكل متكرر من خلال بث منشوراتهم على عدد أكبر من وسائل التواصل الاجتماعي، مما يكسبهم المزيد من المشاهدات والتعليقات والمشاركات. وأظهرت دراسة أجرتها جامعة جنوب كاليفورنيا أن 15% من الأشخاص الذين يشاركون الأخبار بشكل متكرر على وسائل التواصل الاجتماعي كانوا وراء ما يصل إلى 40% من الأخبار المزيفة المتداولة على فيسبوك.
وأشار مركز المعلومات في تحليله إلى التقرير الصادر من شركة Adobe في أبريل 2024، والذي يتضمن نتائج استطلاع إجابات من 6 آلاف شخص في الولايات المتحدة والعديد من الدول الأوروبية، حيث أظهر التقرير أن معظم المشاركين (حوالي 84% من الولايات المتحدة، 85% من المملكة المتحدة، 84% فرنسا، 80% ألمانيا) أعربوا عن قلقهم من أن المحتوى الذي يتصفحونه عبر الإنترنت عرضة للتزييف وأنه قد يحتوي على معلومات خاطئة. وقال عدد كبير (70% الولايات المتحدة، 76% المملكة المتحدة، 73% فرنسا، 70% ألمانيا) أنه أصبح من الصعب التحقق مما إذا كان المحتوى الذي يتصفحونه عبر الإنترنت جدير بالثقة.
واعتقد معظم الأشخاص (83% من الولايات المتحدة، و88% من المملكة المتحدة، و84% من فرنسا، و79% من ألمانيا) بأنه من الضروري أن تكون لديهم الأدوات المناسبة للتحقق مما إذا كان المحتوى عبر الإنترنت جديرًا بالثقة، بالإضافة إلى ذلك، وافقت نسبة عالية من المشاركين (76% من الولايات المتحدة، و82% من المملكة المتحدة، و77% من فرنسا، و74% من ألمانيا) على أنه من المهم معرفة ما إذا كان المحتوى الذي يتصفحونه قد تم إنشاؤه باستخدام الذكاء الاصطناعي، كما أثرت المخاوف بشأن المعلومات الخاطئة أيضًا على استخدام الأفراد لمنصات التواصل الاجتماعي، حيث قال بعض المشاركين (39% في الولايات المتحدة، 29% في المملكة المتحدة، 37% في فرنسا، 24% في ألمانيا) أنهم أوقفوا أو قلصوا من استخدامهم لمنصة معينة من وسائل التواصل الاجتماعي بسبب كمية من المعلومات الخاطئة المتداولة عبره.
وأضاف تحليل مركز المعلومات أنه مع وجود انتخابات -ما بين رئاسية وتشريعية- في عدد من الدول هذا العام، بما في ذلك الولايات المتحدة والمملكة المتحدة والهند وباكستان والعديد من الدول الأخرى، يمكن توقع زيادة المعلومات السياسية المضللة، التي يتم نشرها على وسائل التواصل الاجتماعي، مثل مقاطع الفيديو المزيفة التي أنشأها الذكاء الاصطناعي، حيث قُدرت عدد مقاطع الفيديو المزيفة على وسائل التواصل الاجتماعي بأكثر من 500 ألف في عام 2023 وحده.
وفي الولايات المتحدة، اعتقد 80% من المشاركين في الاستطلاع السابق الإشارة إليه أن المعلومات الخاطئة ستؤثر على الانتخابات المقبلة، كما اعتقد 78% من المشاركين بالاستطلاع أنه لا ينبغي السماح لمرشحي الانتخابات باستخدام المحتوى الناتج عن الذكاء الاصطناعي في الحملات، بينما اعتقد 83% من المشاركين فيه أن الحكومة وشركات التكنولوجيا يجب أن تعمل معًا لمعالجة المشكلات المتعلقة بالمعلومات الخاطئة الناتجة عن الذكاء الاصطناعي.
ولمكافحة المخاطر المتزايدة جراء المعلومات الخاطئة والمضللة عبر الإنترنت، بدأت الحكومات في طرح لوائح جديدة ومتطورة لاستهداف كل من مضيفي ومنشئي المعلومات المضللة والمحتوى غير القانوني عبر الإنترنت. ووافق بعض مطوري الذكاء الاصطناعي على وضع علامة مائية وبصمات الأصابع على الصور ومقاطع الفيديو التي تم إنشاؤها بواسطة الذكاء الاصطناعي.
وتقوم دول مثل الولايات المتحدة باتخاذ إجراءات لتنظيم الذكاء الاصطناعي، فعلى سبيل المثال، يقضي الأمر التنفيذي الأخير الذي أصدره الرئيس الأمريكي جو بايدن بشأن النشر الآمن للذكاء الاصطناعي بضرورة قيام الشركات بمشاركة نتائج اختبارات السلامة مع الحكومة، وتنظيم اختبارات الفريق الأحمر (محاكاة هجمات القرصنة)، ووجه بوضع العلامات المائية على المحتوى.
كما أعلنت الأجهزة الحكومية والشركات في أمريكا الشمالية وأوروبا عن خطط للحد من المعلومات الخاطئة الناتجة عن استخدام الذكاء الاصطناعي قبل الانتخابات المقررة هذا العام، فحظرت لجنة الاتصالات الفيدرالية الأمريكية المكالمات الآلية التي تستخدم الأصوات الناتجة عن الذكاء الاصطناعي بهدف تضليل الناخبين.
وفي الوقت نفسه، ستعمل شركة ميتا على مكافحة المعلومات المضللة في انتخابات الاتحاد الأوروبي، وسيتم تشكيل فريق في يونيو القادم لمعالجة المخاوف بشأن انتشار المعلومات المضللة، وذلك قبل انعقاد انتخابات البرلمان الأوروبي.
وأشار مركز المعلومات إلى قيام الأمم المتحدة باتخاذ إجراءات مماثلة، ففي أكتوبر الماضي، أنشأ الأمين العام للأمم المتحدة أنطونيو جوتيريش هيئة استشارية تمثيلية متعددة التخصصات في مجال الذكاء الاصطناعي، والتي قدمت مؤخرا توصيات لتعزيز الحوكمة العالمية للذكاء الاصطناعي، في حين أصدرت اليونسكو مبادئ توجيهية مهمة بشأن أخلاقيات الذكاء الاصطناعي وكيفية التخفيف من الأضرار المحتملة الناتجة أثناء استخدام الإنترنت.
اقرأ أيضاًجامعة بنها تعلن بدء التسجيل في ماراثون للابتكارات 2024
بالخطوات.. رابط نتيجة الشهادة الإعدادية محافظة الأقصر
المصدر: الأسبوع
كلمات دلالية: الإنترنت مركز المعلومات ودعم اتخاذ القرار بمجلس الوزراء المحتوى الاصطناعي على وسائل التواصل الاجتماعی عن الذکاء الاصطناعی المعلومات المضللة المعلومات الخاطئة الولایات المتحدة المملکة المتحدة مرکز المعلومات أن المعلومات من المشارکین عبر الإنترنت الخاطئة ا أکثر من
إقرأ أيضاً:
السباق الاستخباراتي على الذكاء الاصطناعي
في لحظة فارقة على الساحة التكنولوجية الدولية، جاء إطلاق شركة "ديب سيك" الصينية نموذجا لغويا ضخما يُعد من بين الأفضل في العالم، بالتزامن مع تنصيب دونالد ترامب رئيسا للولايات المتحدة، ليدق ناقوس الخطر في الأوساط الاستخباراتية الأميركية.
واعتبر ترامب ما جرى "جرس إنذار" في حين أقر مارك وارنر نائب رئيس لجنة الاستخبارات بمجلس الشيوخ بأن مجتمع الاستخبارات الأميركي "فوجئ" بسرعة التقدم الصيني، وفق مجلة إيكونوميست.
اقرأ أيضا list of 2 itemslist 1 of 2النيجريون لفرنسا: اعترفي بالجرائم الاستعمارية وعوضي عنهاlist 2 of 2أنقذونا نحن نموت.. المجاعة تجتاح غزةend of listوفي العام الماضي، أبدت إدارة الرئيس الأميركي السابق جو بايدن قلقها من احتمال أن يتفوق الجواسيس والجنود الصينيون في سرعة تبنّي الذكاء الاصطناعي "إيه آي" (AI) فأطلقت خطة طوارئ لتعزيز اعتماد المجالين الاستخباراتي والعسكري على هذه التقنية.
وأوضحت المجلة في تقريرها أن الخطة تضمنت توجيه وزارة الدفاع الأميركية (البنتاغون) ووكالات الاستخبارات ووزارة الطاقة (المسؤولة عن إنتاج الأسلحة النووية) بتكثيف تجاربها على النماذج الأحدث من الذكاء الاصطناعي، وتوثيق التعاون مع مختبرات القطاع الخاص الرائدة مثل أنثروبيك وغوغل ديب مايند، وأوبن إيه آي.
سباق مفتوحوفي خطوة ملموسة، منح البنتاغون، في 14 يوليو/تموز الجاري، عقودا تصل قيمتها إلى 200 مليون دولار لكل من تلك الشركات بالإضافة إلى "إكس إيه آي" المملوكة للملياردير إيلون ماسك، بهدف تطوير نماذج من الذكاء الاصطناعي الوكيل الذي يمكنه اتخاذ القرارات، والتعلم المستمر من التفاعلات، وتنفيذ مهام متعددة من خلال تقسيمها إلى خطوات وتحكّمها بأجهزة أخرى مثل الحواسيب أو المركبات.
لكن هذا السباق لا يقتصر -برأي إيكونوميست- على البنتاغون. إذ باتت نماذج الذكاء الاصطناعي تنتشر بسرعة داخل الوكالات الاستخباراتية، لتُستخدم في تحليل البيانات السرية والتفاعل مع المعلومات الحساسة.
الشركات طورت نسخا مُعدّلة من نماذجها تتيح التعامل مع وثائق مصنّفة سرّيا، وتتمتع بإتقان لغات ولهجات حساسة لاحتياجات الاستخبارات، مع تشغيلها على خوادم مفصولة عن الإنترنت العام
كما طوّرت الشركات نسخا مُعدّلة من نماذجها تتيح التعامل مع وثائق مصنّفة سرّيا، وتتمتع بإتقان لغات ولهجات حساسة لاحتياجات الاستخبارات، مع تشغيلها على خوادم مفصولة عن الإنترنت العام.
إعلانففي يناير/كانون الثاني الماضي، أعلنت شركة مايكروسوفت أن 26 من منتجاتها في الحوسبة السحابية حصلت على تصريح لاستخدامها في وكالات الاستخبارات.
وفي يونيو/حزيران، أعلنت أنثروبيك عن إطلاق نموذج "كلود غوف" (Claude Gov) وهو روبوت دردشة جديد مصمم خصيصا للجهات العسكرية والاستخباراتية بالولايات المتحدة، مشيرة إلى أنه يُستخدم بالفعل على نطاق واسع في جميع أجهزة الاستخبارات الأميركية، إلى جانب نماذج أخرى من مختبرات منافسة.
منافسون آخرونليست وحدها الولايات المتحدة التي تشهد مثل هذه التطورات، حيث تفيد المجلة أن بريطانيا تسعى إلى تسريع وتيرة اللحاق بالركب، ناقلة عن مصدر بريطاني رفيع -لم تُسمِّه- تأكيده أن جميع أعضاء مجتمع الاستخبارات في بلاده بات لديهم إمكانية الوصول إلى "نماذج لغوية ضخمة عالية السرية".
وعلى البر الرئيسي للقارة، تحالفت شركة ميسترال الفرنسية -الرائدة والوحيدة تقريبا في مجال الذكاء الاصطناعي على مستوى أوروبا- مع وكالة الذكاء الاصطناعي العسكري بالبلاد، لتطوير نموذج "سابا" (Saba) المدرّب على بيانات من الشرق الأوسط وجنوب آسيا، ويتميز بإتقانه العربية ولغات إقليمية أخرى مثل التاميلية.
أما في إسرائيل، فقد أفادت مجلة "+972" أن استخدام الجيش نموذج "جي بي تي-4" (GPT-4) الذي تنتجه شركة "أوبن إيه آي" قد تضاعف 20 مرة منذ اندلاع الحرب على قطاع غزة، في مؤشر إلى مدى تسارع تبنّي هذه النماذج في السياقات العسكرية الحية.
ورغم هذا النشاط المحموم، يقرّ خبراء داخل القطاع بأن تبنّي الذكاء الاصطناعي بأجهزة الأمن لا يزال متواضعا. وتقول كاترينا مولِّيغان المسؤولة عن شراكات الأمن في "أوبن إيه آي" إن اعتماد الذكاء الاصطناعي "لم يصل بعد إلى المستوى الذي نأمله".
وحتى مع وجود جيوب من التميز، كوكالة الأمن القومي الأميركية، إلا أن العديد من الوكالات ما تزال تتخلف عن الركب، إما بسبب تصميمها واجهات تشغيل خاصة بها، أو بسبب الحذر البيروقراطي في تبني التحديثات السريعة التي تشهدها النماذج العامة.
ويرى بعض الخبراء أن التحول الحقيقي لا يكمن في استخدام روبوتات دردشة فحسب، بل في "إعادة هندسة المهام الاستخباراتية نفسها" كما يقول تارون تشابرا المسؤول السابق بمجلس الأمن القومي الأميركي، والمدير الحالي للسياسات الأمنية في شركة أنثروبيك.
لعبة تجسس بالذكاء الاصطناعيفي المقابل، تُحذر جهات بحثية من المبالغة في الآمال المعقودة على هذه النماذج، حيث يرى الدكتور ريتشارد كارتر (من معهد آلان تورينغ البريطاني) أن المشكلة الأساسية تكمن في ما تُنتجه النماذج من "هلوسات" -أي إجابات غير دقيقة أو مضللة- وهو خطر كبير في بيئة تتطلب الموثوقية المطلقة.
وقد بلغت نسبة الهلوسة في أحدث نموذج للذكاء الاصطناعي "الوكيل" الذي تنتجه "أوبن إيه آي" حوالي 8%، وهي نسبة أعلى من النماذج السابقة.
وتُعد هذه المخاوف -بحسب إيكونوميست- جزءا من تحفظ مؤسسي مشروع، خاصة في أجهزة مثل وكالة الاستخبارات والأمن البريطانية المعروفة اختصارا بحروفها الإنجليزية الأولى "جي سي إتش كيو" (GCHQ) التي تضم مهندسين لديهم طبيعة متشككة تجاه التقنيات الجديدة غير المُختبرة جيدا.
إعلانويتصل هذا بجدل أوسع حول مستقبل الذكاء الاصطناعي. فالدكتور كارتر من بين أولئك الذين يرون أن بنية النماذج اللغوية العامة الحالية لا تُناسب نوع التفكير السببي الذي يمنحها فهما متينا للعالم. ومن وجهة نظره، فإن الأولوية بالنسبة لوكالات الاستخبارات يجب أن تكون دفع المختبرات نحو تطوير نماذج جديدة تعتمد على أنماط تفكير واستدلال مختلفة.
الصين في الصورةورغم تحفّظ المؤسسات الغربية، يتصاعد القلق من تفوق الصين المحتمل. يقول فيليب راينر من معهد الأمن والتكنولوجيا في وادي السيليكون "لا نزال نجهل مدى استخدام الصين نموذج ديب سيك (DeepSeek) في المجالين العسكري والاستخباراتي" مرجحاً أن "غياب القيود الأخلاقية الصارمة لدى الصين قد يسمح لها باستخلاص رؤى أقوى وبوتيرة أسرع".
موليغان: ما يُقلقني فعلا هو أن نكسب سباق الوصول إلى الذكاء الاصطناعي العام (AGI)، لكن نخسر سباق التبني الفعلي له
وإزاء هذا القلق، أمرت إدارة ترامب، في 23 يوليو/تموز الجاري، وزارة الدفاع ووكالات الاستخبارات بإجراء تقييمات دورية لمستوى تبنّي الذكاء الاصطناعي في المؤسسات الأمنية الأميركية مقارنة بمنافسين مثل الصين، وتطوير آلية للتكيّف المستمر.
ويجمع المراقبون تقريبا على نقطة جوهرية، وهي أن الخطر الأكبر لا يكمن في أن تندفع أميركا بلا بصيرة نحو تبني الذكاء الاصطناعي، بل في أن تظل مؤسساتها عالقة في نمطها البيروقراطي القديم.
وتقول كاترينا مولِّيغان "ما يُقلقني فعلا هو أن نكسب سباق الوصول إلى الذكاء الاصطناعي العام (إيه جي آي AGI) لكن نخسر سباق التبني الفعلي له".