كشفت شركة أوبن إيه آي الخميس الماضي عن 5 عمليات سرية من روسيا والصين وإيران وإسرائيل، استخدمت فيها تلك الدول تقنيات الذكاء الاصطناعي الخاصة بالشركة بغرض التأثير على الرأي العام العالمي، وذكرت الشركة أنها تمكنت من إيقافها، وفقا لما أوردته صحيفة تايم.

وأوضحت الشركة في تقريرها الجديد كيف استخدمت هذه المجموعات، التي يرتبط بعضها بحملات دعائية معروفة، تقنيات الشركة في العديد من "الأنشطة المضللة".

وشملت تلك الأنشطة إنتاج تعليقات ومقالات وصور على وسائل التواصل الاجتماعي بعدة لغات، بالإضافة إلى ابتكار أسماء ونبذات تعريفية لحسابات وهمية، وتعديل الأكواد البرمجية، بجانب ترجمة النصوص وتدقيقها لغويا.

وركزت هذه العمليات على مجموعة من القضايا، منها الدفاع عن الحرب الدائرة على قطاع غزة والغزو الروسي لأوكرانيا، وتوجيه الانتقادات لمعارضي الحكومة الصينية، بالإضافة إلى نشر تعليقات حول السياسات في الهند وأوروبا والولايات المتحدة في إطار محاولاتها للتأثير على الرأي العام هناك.

وفي حين استهدفت عمليات التأثير المذكورة نطاقا واسعا من المنصات على الإنترنت، بما فيها منصة إكس وتليغرام وفيسبوك وميديم و"بلوغسبوت" (Blogspot) وغيرها من المواقع، "إلا أن أيا منها لم يتمكن من اجتذاب جمهور كبير" وفقا لمحللي أوبن إيه آي.

إسرائيل تحاول التأثير على الرأي العام

كما أوضح تقرير الشركة بالتفصيل كيف استخدمت الشركة الإسرائيلية "ستويك" (Stoic)، وهي شركة للتسويق السياسي في تل أبيب، أدوات أوبن إيه آي لتوليد محتوى مؤيد لإسرائيل حول حرب الإبادة الدائرة على قطاع غزة.

واستهدفت تلك الحملة، التي كانت باسم "زيرو زينو" (Zero Zeno)، الجمهور في الولايات المتحدة وكندا وإسرائيل. والأربعاء الماضي، ذكرت شركة ميتا أنها حذفت 510 حسابات على فيسبوك و32 حسابا على إنستغرام ارتبطت بنفس الشركة الإسرائيلية.

وكانت مجموعة الحسابات المزيفة، التي تضمنت حسابات لأشخاص يتظاهرون بأنهم أميركيون من أصل أفريقي وطلاب في الولايات المتحدة وكندا، غالبا ترد على شخصيات بارزة أو مؤسسات إعلامية في منشورات تشيد بإسرائيل وتنتقد معاداة السامية في الجامعات الأميركية وتندد بتيارات "الإسلام الراديكالية".

وبحسب تقرير أوبن إيه آي، يبدو أن تلك الحملة قد فشلت في الوصول إلى أي تفاعل يُذكر معها.

أدوات أوبن إيه آي استخدمت لتوليد محتوى مؤيد لإسرائيل حول حرب الإبادة الدائرة على قطاع غزة (الجزيرة) مخاوف من التأثير على الانتخابات

يأتي هذا التقرير، وهو أول تقرير من نوعه تصدره الشركة، وسط مخاوف عالمية حول التأثير المحتمل لاستخدام تقنيات الذكاء الاصطناعي على أكثر من 64 من الانتخابات التي ستجري هذا العام في مختلف أنحاء العالم، بما فيها الانتخابات الرئاسية الأميركية في نوفمبر/تشرين الثاني القادم.

ومن الأمثلة التي أوردها التقرير، جاء في أحد المنشورات التي كتبتها مجموعة روسية على تطبيق تليغرام: "لقد سئمت وتعبت من هؤلاء الحمقى الذين أصابهم خلل في أدمغتهم وهم يلعبون بينما يعاني الأميركيون. يجب على واشنطن أن تعيد ترتيب أولوياتها وإلا سيشعرون بالقوة الكاملة لتكساس!".

وتكشف الأمثلة، التي أوردها محللو أوبن إيه آي، كيف تستخدم الجهات الخارجية تقنيات الذكاء الاصطناعي في نفس أنواع عمليات التأثير على الإنترنت التي تنفذها منذ عقد من الزمان. وتركز هذه الجهات على استخدام الحسابات والتعليقات والمقالات المزيفة بهدف التأثير على الرأي العام والتلاعب بالنتائج السياسية.

وكتب الباحث المسؤول عن فريق الاستخبارات والتحقيقات في أوبن إيه آي في التقرير: "تكشف هذه التوجهات عن ساحة تهديدات تتسم بالتطور وليس الثورية. تستخدم تلك الجهات منصتنا لتحسين جودة محتواها والعمل بكفاءة أكبر".

عمليات روسية وصينية

وتشير شركة أوبن إيه آي، المطورة لروبوت المحادثة "شات جي بي تي"، إلى أنها تملك الآن أكثر من 100 مليون مستخدم نشط أسبوعيا، وتعمل أدواتها على تسهيل وسرعة إنتاج كم ضخم من المحتوى، كما يمكن استخدامها لإخفاء الأخطاء اللغوية وتوليد تفاعل وهمي.

مثلا، استخدمت إحدى حملات التأثير الروسية التي أوقفتها الشركة، وأطلقت عليها اسم "قواعد سيئة" (Bad Grammar)، نماذج الذكاء الاصطناعي الخاصة بها لتصحيح الأكواد البرمجية لتشغيل روبوت على تطبيق تليغرام يتولى عملية نشر تعليقات سياسية قصيرة باللغتين الإنجليزية والروسية. وتقول الشركة إن العملية استهدفت أوكرانيا ومولدوفا والولايات المتحدة ودول البلطيق.

كما استخدمت عملية روسية أخرى، تُعرف باسم "دوبلجنجر" (Doppelganger) وربطتها وزارة الخزانة الأميركية بالكرملين، نماذج أوبن إيه آي لتوليد عناوين الأخبار وتحويل المقالات الصحفية إلى منشورات على فيسبوك، بالإضافة إلى كتابة التعليقات باللغات الإنجليزية والفرنسية والألمانية والإيطالية والبولندية.

كما استخدمت شبكة صينية معروفة، وهي شبكة "سباموفلاج" (Spamouflage)، أدوات أوبن إيه آي للبحث في أنشطة وسائل التواصل الاجتماعي، وتوليد نصوص باللغات الصينية والإنجليزية واليابانية والكورية نُشرت عبر منصات مختلفة منها منصة "إكس" و"ميديم" و"بلوغسبوت".

الخطأ البشري

وذكرت الشركة أنها تعتمد على تقنياتها الخاصة التي يدعمها الذكاء الاصطناعي للتحقيق في عمليات التأثير الخارجية وفي محاولات إيقافها بكفاءة أكبر، إذ أوضحت الشركة: "لقد استغرقت عمليات التحقيق المذكورة في التقرير المرفق أياما، عوضا عن أسابيع أو شهور، وذلك بفضل أدواتنا".

كما أشارت الشركة إلى أنه رغم التطور السريع لتقنيات الذكاء الاصطناعي، فإن الخطأ البشري يظل عاملا مؤثرا في هذا السياق. وأضافت: "بإمكان الذكاء الاصطناعي أن يغير مجموعة الأدوات التي تستخدمها العناصر البشرية، ولكنه لا يغير العناصر نفسها. بينما من الضروري الانتباه إلى الأدوات المتغيرة التي تستخدمها الجهات الخارجية في هذه التهديدات، إلا أنه ينبغي علينا أيضا الانتباه لأوجه القصور البشرية التي قد تؤثر على عملياتهم واتخاذهم للقرارات".

المصدر: الجزيرة

كلمات دلالية: حريات تقنیات الذکاء الاصطناعی على الرأی العام التأثیر على أوبن إیه آی

إقرأ أيضاً:

خبراء يكشفون خطر الذكاء الاصطناعي على الدماغ

#سواليف

كشفت دراسة حديثة عن #مخاطر محتملة لبرامج الدردشة المدعومة بالذكاء الاصطناعي مثل ChatGPT، حيث قد تشكل تهديدا غير متوقع للصحة العقلية لبعض المستخدمين.

ورصدت الدراسة التي أجراها باحثون من جامعة كينغز كوليدج لندن، ظاهرة جديدة أطلقوا عليها اسم ” #ذهان_الشات_بوت”، حيث قد تساهم هذه التقنية في “طمس حدود الواقع” لدى المستخدمين المعرضين للخطر وتؤدي إلى “ظهور أو تفاقم أعراض ذهانية.

وببساطة، قد يبدأ البعض، خاصة المعرضين نفسيا، في فقدان القدرة على التمييز بين الواقع والمحادثات مع #الذكاء_الاصطناعي بعد استخدام مكثف لهذه البرامج.

مقالات ذات صلة حرارة الصيف تهاجم إطارات السيارات.. كيف تحمي نفسك من أضرار لا تُرى؟ 2025/07/30

ويوضح الدكتور هاميلتون مورين، أحد المشاركين في الدراسة: “نحن لا نتحدث عن خيال علمي هنا. هذه حالات حقيقية يبدأ فيها المستخدمون بتطوير معتقدات وأفكار غير منطقية متأثرة بتفاعلاتهم مع #الذكاء_الاصطناعي”.

وتكمن المشكلة في أن هذه البرامج مصممة لتكون ودودة، متعاطفة، وتجيب على كل الأسئلة بثقة عالية. وهذه الميزات التي تبدو إيجابية، قد تكون خادعة للأشخاص الذين يعانون أساسا من هشاشة نفسية أو استعداد للاضطرابات الذهانية.

ويشير البروفيسور توم بولاك، أحد معدي الدراسة، إلى أن “الذهان لا يظهر فجأة، لكن الذكاء الاصطناعي قد يكون العامل الذي يدفع الشخص الهش نفسيا نحو الحافة”.

في تعليق سابق خلال بودكاست في مايو الماضي، اعترف سام ألتمان، الرئيس التنفيذي لشركة OpenAI، بأن الشركة تواجه صعوبات في وضع ضوابط أمان فعالة لحماية المستخدمين المعرضين للخطر، قائلا: “لم نكتشف بعد كيفية إيصال التحذيرات للمستخدمين الذين يكونون في حالة عقلية هشة وعلى وشك الانهيار الذهاني”.

وفي الوقت الحالي، ينصح الخبراء باستخدام هذه الأدوات بحذر، خاصة من لديهم تاريخ مع الاضطرابات النفسية، مع التأكيد على أن الغالبية العظمى من المستخدمين لا يواجهون مثل هذه المخاطر. لكن الرسالة واضحة: الذكاء الاصطناعي، مثل أي تقنية قوية، يحتاج إلى فهم دقيق لآثاره الجانبية قبل أن يصبح أكثر تعمقا في حياتنا.

مقالات مشابهة

  • أوبن إيه آي تكشف عن وضع جديد مخصص للطلاب
  • هذه النتائج المالية التي حققتها الشركة المركزية لإعادة التأمين (CCR)
  • لجنة بغزة: بيانات مصر حول المساعدات تضلل الرأي العام
  • السباق الاستخباراتي على الذكاء الاصطناعي
  • معضلة الذكاء الاصطناعي والمؤلف العلمي
  • خبراء يكشفون خطر الذكاء الاصطناعي على الدماغ
  • مزرعة مخدّرات سرية في البيضاء.. إنتاج أكثر من 5 آلاف كيلوغرامًا من القنب الهندي
  • غزة: اختبارٌ لتسامح الرأي العام مع مستويات القتل والدمار..
  • حوارٌ مثيرٌ مع الذكاء الاصطناعي
  • هل تنفجر معدلات النمو الاقتصادي في زمن الذكاء الاصطناعي؟