في خطوة جديدة تسلط الضوء على تصاعد القلق العالمي من إساءة استخدام الذكاء الاصطناعي، كشفت شركة OpenAI عن حظر حساب صيني استخدم منصة ChatGPT لتصميم مواد ترويجية وخطط مشاريع لأداة مراقبة موجهة نحو شبكات التواصل الاجتماعي، يُعتقد أنها طُورت لصالح جهة حكومية.

 وتأتي هذه الخطوة ضمن جهود الشركة المستمرة لرصد الأنشطة التي تُخالف سياساتها وتستغل نماذجها في أغراض أمنية أو سياسية.

وأوضحت OpenAI أن الحساب المحظور كان يعمل على تطوير ما وصفته الشركة بأنه "مسبار رقمي" قادر على تتبع منصات مثل X (تويتر سابقًا) وفيسبوك وإنستغرام وريديت وتيك توك ويوتيوب، بهدف جمع وتحليل محتوى يحمل طابعًا سياسيًا أو دينيًا أو عرقيًا. 

ووفقًا للتفاصيل التي نشرتها الشركة، كانت الأداة قادرة على تحديد الموضوعات الحساسة ومتابعة كيفية تداولها عبر الإنترنت، مما يجعلها وسيلة محتملة للتجسس الرقمي أو مراقبة الرأي العام.

وأضافت OpenAI أنها لا تملك أدلة قاطعة تؤكد أن المشروع كان يُدار مباشرة من قبل جهة حكومية صينية، لكنها أشارت إلى أن الحساب المرتبط به استخدم ChatGPT بشكل مكثف في إعداد الوثائق والخطط الخاصة بالأداة. وأكدت الشركة أنها أوقفت المشروع فور اكتشافه، مشيرة إلى أن هذه ليست المرة الأولى التي تُعطل فيها محاولات مشابهة، إذ سبق أن رصدت أنشطة مماثلة في وقت سابق من العام الجاري.

كما كشفت OpenAI في تقريرها الأخير أنها حظرت حسابًا آخر استخدم ChatGPT لتصميم مقترح يُروّج لما سُمي "نظام تحذير من تدفقات عالية الخطورة مرتبطة بالأويغور"، وهو ما اعتبرته الشركة محاولة غير مشروعة لتطوير أداة يمكن أن تُستخدم في تتبع تحركات أفراد أو مجموعات تنتمي إلى أقلية الأويجور المسلمة في الصين. 

وتُتهم الحكومة الصينية منذ سنوات بانتهاكات واسعة لحقوق الإنسان ضد هذه الأقلية، الأمر الذي يجعل هذه الأنشطة محلّ تدقيق دولي متزايد.

ويأتي هذا الإعلان ضمن سلسلة من تقارير التهديدات التي بدأت OpenAI بنشرها منذ فبراير 2024، بهدف رفع مستوى الوعي العالمي حول الجهات التي تستغل النماذج اللغوية الضخمة في أنشطة ضارة، سواء كانت مرتبطة بدول أو منظمات أو شبكات احتيالية. وتستعرض الشركة في هذه التقارير أحدث محاولات الاختراق والاستخدامات غير القانونية لمنتجاتها مثل ChatGPT، مع تفصيل الإجراءات التي اتخذتها لتعطيلها.

وأشارت الشركة في أحدث تقرير لها إلى أنها رصدت مطورين يتحدثون الروسية والكورية والصينية يستخدمون ChatGPT لتحسين برمجيات خبيثة وتطوير أدوات اختراق أكثر تطورًا. كما اكتشفت شبكات في كمبوديا وميانمار ونيجيريا تستخدم أدوات الذكاء الاصطناعي لإدارة عمليات احتيال رقمية، بما في ذلك إنشاء رسائل تصيد إلكتروني مُقنعة تهدف إلى خداع المستخدمين وسرقة بياناتهم.

ورغم هذه التحديات، أوضحت OpenAI أن منصتها تُستخدم في مكافحة الاحتيال أكثر مما تُستخدم في إنشائه، مشيرة إلى أن معدلات الاستخدام الأخلاقي والإيجابي تفوق المحاولات الضارة بثلاثة أضعاف تقريبًا. وتؤكد الشركة أن هذا التوازن يعكس التزامها بتطوير أدوات ذكاء اصطناعي آمنة، ومواصلة تحديث سياساتها الرقابية لمنع أي إساءة استخدام.

وخلال صيف 2025، كانت OpenAI قد عطلت عمليات في إيران وروسيا والصين استغلت ChatGPT في إنشاء محتوى تضليلي عبر الإنترنت، مثل كتابة منشورات وتعليقات تهدف إلى زيادة الاستقطاب بين المستخدمين والتأثير على النقاشات العامة. وقد تم توزيع هذا المحتوى المُولّد بالذكاء الاصطناعي على منصات متعددة داخل هذه الدول وخارجها، في محاولات منظمة للتأثير على الرأي العام.

وتؤكد الشركة الأمريكية أن مكافحة هذا النوع من الأنشطة تتطلب تعاونًا دوليًا واسعًا، إذ لا يمكن لأي جهة واحدة التصدي لجميع أشكال إساءة استخدام الذكاء الاصطناعي. كما شددت على أنها تعمل باستمرار على تطوير أدوات كشف متقدمة، إلى جانب التعاون مع حكومات ومؤسسات تقنية لتعزيز الشفافية والمساءلة في هذا المجال.

في المقابل، يرى خبراء الأمن السيبراني أن إعلان OpenAI الأخير يعكس بداية مرحلة جديدة من المواجهة بين مطوري الذكاء الاصطناعي والجهات التي تسعى لاستغلال هذه التكنولوجيا لأغراض رقابية أو سياسية. فبينما يفتح الذكاء الاصطناعي آفاقًا غير محدودة للابتكار، فإنه في الوقت نفسه يخلق تحديات أخلاقية وأمنية غير مسبوقة، تتطلب يقظة دائمة وضوابط صارمة على مستوى العالم.

المصدر: بوابة الوفد

كلمات دلالية: الصين مراقبة وسائل التواصل الذكاء الاصطناعي الأمن السيبراني الأويجور الذکاء الاصطناعی التی ت إلى أن

إقرأ أيضاً:

كيف تحمي نفسك من أدوات الذكاء الاصطناعي التي تجمع بياناتك الشخصية (فيديو)

حذر المهندس عصام البرعي، خبير أمن المعلومات، من مخاطر استخدام أدوات وتقنيات الذكاء الاصطناعي، مشيرًا إلى أنها باتت قادرة على إنتاج صور وأصوات تبدو واقعية للغاية، لدرجة أن المستخدم قد يصدق أنها حقيقية، مؤكدًا أن هذه التقنيات أصبحت تهدد الخصوصية بشكل كبير.

خبير تكنولوجي: ما نراه من الذكاء الاصطناعي مجرد 10% مما سيحدث فيديوهات مفبركة لفنانين.. المهن التمثيلية: مشروع قانون لتشديد العقوبات على جرائم الذكاء الاصطناعي أدوات الذكاء الاصطناعي

وأضاف عصام البرعي، خلال لقائه مع حياة مقطوف وسارة مجدي ببرنامج "صباح البلد"، والمذاع على قناة صدى البلد، أن أدوات الذكاء الاصطناعي باتت تجمع وتحلل كميات هائلة من البيانات الشخصية بسرعة كبيرة، ما يجعل الخصوصية الرقمية في خطر دائم، مؤكدًا أن التكنولوجيا أصبحت واقعًا لا يمكن تجاهله، ولكن من الضروري معرفة كيفية حماية النفس منها.

وتابع: هذه الأدوات لديها القدرة على تحليل سلوك المستخدم وتحديد نقاط ضعفه النفسية وقدرته على اتخاذ القرارات، ما يجعلها قادرة على جمع تفاصيل دقيقة عن حياته اليومية، مثل المشكلات العائلية أو العملية، وحتى تقديم حلول أو اقتراحات للتصرف.

خطورة السماح لهذه التطبيقات بالوصول إلى المعلومات الشخصية

وأشار عصام البرعي إلى، أن هذه البيانات غالبًا ما تستخدم لاحقًا من قبل شركات الإعلانات أو لأغراض توجيهية في الانتخابات أو الترويج لمحتوى محدد، محذرًا من خطورة السماح لهذه التطبيقات بالوصول إلى المعلومات الشخصية دون وعي المستخدم.

مقالات مشابهة

  • جوجل تكشف عن متصفح ديسكو المدعوم بالذكاء الاصطناعي مع أداة GenTabs المبتكرة
  • ديزني وOpenAI.. تحالف غير متوقع يعيد رسم مستقبل الذكاء الاصطناعي
  • دعوى قتل خطأ تُلاحق OpenAI وتفتح ملف الذكاء الاصطناعي والصحة النفسية
  • الذكاء الاصطناعي الخارق.. OpenAI تحتفل بعشر سنوات من الإنجازات
  • أماندا سيفريد تتمسك بموقفها وتدافع عن تصريحاتها المثيرة للجدل
  • كيف تحمي نفسك من أدوات الذكاء الاصطناعي التي تجمع بياناتك الشخصية (فيديو)
  • ديزني تدخل عالم المحتوى المولد بالذكاء الاصطناعي عبر بوابة OpenAI
  • قراصنة يستغلون الذكاء الاصطناعي.. هجمات خفية عبر جوجل وبرمجيات الدردشة
  • الشركة الجهوية متعددة الخدمات بالعيون تنفي أي زيادة في أسعار الماء والكهرباء
  • الصين تعزز استخدام رقائق الذكاء الاصطناعي المحلية