قد يكون لتسريب روبوت الدردشة "الذكي" الخاص بشركة ميتا هذا الأسبوع تداعياتٌ على الشركة تتجاوز مجرد سوء العلاقات العامة. يوم الجمعة، صرّح السيناتور جوش هاولي (جمهوري عن ولاية ميزوري) بأن اللجنة الفرعية للجريمة ومكافحة الإرهاب التابعة لمجلس الشيوخ، والتي يرأسها، ستُحقق في أمر الشركة.

كتب هاولي في رسالة إلى مارك زوكربيرج: "لقد أقرّت شركتكم بصحة هذه التقارير ولم تُقدم أي تراجعات إلا بعد كشف هذا المحتوى المُقلق.

من غير المقبول أن تُطرح هذه السياسات من الأساس".

تضمنت وثيقة ميتا الداخلية بعض الأمثلة المُقلقة على سلوكيات روبوت الدردشة المسموح بها. وشمل ذلك محادثات "حسيّة" مع الأطفال. على سبيل المثال، سُمح للذكاء الاصطناعي بأن يُخبر طفلًا عاري الصدر يبلغ من العمر ثماني سنوات أن "كل شبر فيك تحفة فنية - كنزٌ أعتز به بشدة". وتناولت الوثيقة مسألة العرق بطرقٍ مُزعجةٍ مماثلة. كان رد "السود أغبى من البيض" مسموحًا به إذا استشهد الروبوت باختبارات الذكاء في رده العنصري.

وفي بيان لموقع Engadget، وصفت شركة Meta الأمثلة (التي حُذفت لاحقًا) بأنها محتوى ثانوي منفصل عن سياساتها. وقالت الشركة: "الأمثلة والملاحظات المعنية كانت ولا تزال خاطئة ومتعارضة مع سياساتنا، وقد حُذفت".

وطلب هاولي من زوكربيرج الاحتفاظ بالسجلات ذات الصلة وتقديم وثائق للتحقيق. ويشمل ذلك تلك التي تغطي مخاطر محتوى الذكاء الاصطناعي التوليدي ومعايير السلامة (والمنتجات التي تُحكمها)، ومراجعات المخاطر، وتقارير الحوادث، والتواصل العام حول السلامة البسيطة لروبوتات الدردشة، وهويات الموظفين المشاركين في القرارات.

في حين أنه من السهل الإشادة بشخص يُحاسب Meta، تجدر الإشارة إلى أن رسالة السيناتور هاولي إلى Meta لم تُشر إلى الأجزاء العنصرية من وثيقة السياسة. كما جمع هاولي الأموال ذات مرة من خلال صورة له وهو يرفع قبضته في وجه المتمردين في السادس من يناير، وفي عام 2021، كان السيناتور الوحيد الذي صوت ضد مشروع قانون يساعد سلطات إنفاذ القانون على مراجعة الجرائم العنصرية ضد الأمريكيين الآسيويين خلال عصر الوباء.

المصدر: بوابة الوفد

إقرأ أيضاً:

قراصنة يستغلون الذكاء الاصطناعي.. هجمات خفية عبر جوجل وبرمجيات الدردشة

تتزايد خلال الشهور الأخيرة مخاوف الباحثين في الأمن السيبراني من ظهور أساليب جديدة للهجمات التي تستغل ثقة المستخدمين في أدوات الذكاء الاصطناعي، وفي مقدمتها روبوتات الدردشة الشهيرة مثل ChatGPT وGrok.

 تقرير حديث لشركة "هانتريس" المتخصصة في الكشف عن التهديدات كشف عن نمط هجوم مقلق يعتمد على دمج الذكاء الاصطناعي في أساليب الاحتيال التقليدية، ما يضع المستخدمين أمام موجة جديدة من المخاطر التي يصعب ملاحظتها بالطرق المعتادة.

وفقًا للتقرير، بدأ القراصنة في استغلال محركات البحث وروبوتات الدردشة لترويج تعليمات خطيرة تُزرع داخل محادثات منشورة للعامة. الخطورة هنا لا تتعلق فقط بنوعية الهجوم، بل بقدرته على تجاوز جميع الإشارات التحذيرية التي يعتمد عليها المستخدمون عادة لاكتشاف المحتوى الخبيث. 

فبدلًا من إرسال روابط مشبوهة أو طلب تحميل ملفات غير معروفة، يعتمد المهاجمون على الطلب من المستخدم تنفيذ أوامر مباشرة عبر نافذة الطرفية أو سطر الأوامر، مستغلين ثقته العمياء في الذكاء الاصطناعي ومحرك بحث جوجل.

وتبدأ العملية ببساطة شديدة: يتحدث المخترق مع روبوت ذكاء اصطناعي حول موضوع بحث شائع، مثل تنظيف مساحة التخزين أو إصلاح خطأ تقني، ثم يطلب من الذكاء الاصطناعي اقتراح أمر جاهز يُلصَق في الطرفية لتنفيذ المهمة. هذه المحادثة تُنشر بشكل عام، ويقوم المهاجم بدفع المال لتتقدم في نتائج جوجل. وعندما يبحث مستخدم عادي عن نفس المشكلة التقنية، تظهر له تلك المحادثة في أعلى نتائج البحث، فيظن أنها نصيحة موثوقة ويقوم بتنفيذ التعليمات دون تردد.

ضحية هجوم AMOS الأخير كانت مجرد مستخدم يبحث عن طريقة لمسح مساحة القرص على جهاز ماك. بمجرد نقره على رابط منشور تابع لـ ChatGPT وتنفيذ الأمر المقترح، منح المهاجمين تصريحًا مُباشرًا لتثبيت البرنامج الخبيث على جهازه. ووفقًا لاختبارات "هانتريس"، فإن كلًا من ChatGPT وGrok قدما ردودًا مشابهة في سيناريوهات محاكاة، مما يشير إلى أن المشكلة لا تقتصر على نظام واحد.

اللافت في الأمر أن هذا النوع من الهجمات يلغي الحاجة إلى أي من العلامات التحذيرية التقليدية:
لا ملفات مجهولة، ولا روابط غريبة، ولا إجراءات تتطلب إذنًا خاصًا. كل ما يحدث يجري ضمن بيئة موثوقة — جوجل، وChatGPT، ومنصات الذكاء الاصطناعي التي اعتاد كثيرون على الاعتماد عليها يوميًا.

وتحذر "هانتريس" من أن خطورة هذا الأسلوب تكمن في بساطته وقدرته على خداع حتى المستخدمين المتمرسين تقنيًا. فالاعتماد المتزايد على روبوتات الدردشة يجعل المستخدمين يميلون لتصديق أي أمر يبدو تقنيًا وصادرًا عن أداة ذكاء اصطناعي معروفة. المستغرب أيضًا أن الرابط الضار ظل ظاهرًا في نتائج البحث نصف يوم كامل بعد نشر التحذير، رغم محاولات إزالته.

هذه التطورات تأتي في وقت حساس بالنسبة لبرامج الدردشة نفسها. فـ Grok يواجه انتقادات واسعة بسبب انحيازاته، فيما يتعرض ChatGPT لاتهامات بالتراجع في قدراته مقارنة بالمنافسين. مثل هذه الحوادث تزيد الضغط على الشركات المطورة لأنظمة الذكاء الاصطناعي لمراجعة آليات الحماية ومنع إساءة الاستخدام.

وبينما لا يزال من غير الواضح ما إذا كانت روبوتات دردشة أخرى قابلة للاستغلال بنفس الطريقة، يشدد الخبراء على ضرورة رفع مستوى الحذر لدى المستخدمين. التوصيات الأساسية تشمل عدم تنفيذ أي أوامر نصية دون التأكد من مصدرها، وعدم لصق تعليمات في الطرفية أو المتصفح ما لم يكن المستخدم على دراية كاملة بوظيفتها.

في النهاية، يفتح هذا النوع من الهجمات فصلًا جديدًا في عالم الجرائم الإلكترونية، حيث تختلط خوارزميات الذكاء الاصطناعي مع أساليب الاحتيال بطريقة تجعل من الصعب اكتشاف التلاعب. ومع توسع الاعتماد على أدوات الذكاء الاصطناعي في حياتنا اليومية، تصبح الحاجة إلى وعي أكبر وتدقيق أشد ضرورة لضمان بقاء المستخدمين في مأمن من هذه الهجمات المتطورة.

مقالات مشابهة

  • جوجل تختبر مستقبل التصفح الذكي عبر «ديسكو»
  • قراصنة يستغلون الذكاء الاصطناعي.. هجمات خفية عبر جوجل وبرمجيات الدردشة
  • الشركة الجهوية متعددة الخدمات بالعيون تنفي أي زيادة في أسعار الماء والكهرباء
  • روبوت قهوة بين سيارات ملكية.. مفاجأة تنتظر زوار متحف في عمّان
  • ثلث المراهقين الأمريكيين يستخدمون روبوتات الدردشة الذكية يوميًا.. ChatGPT يتصدر المشهد
  • لجنة أمانة عمّان الكبرى تصادق على مشاريع للتحول الذكي
  • أبرز أدوات الذكاء الاصطناعي لتحسين تجربة التسوق عبر الإنترنت
  • وزير التموين يشهد مراسم توقيع بروتوكول تعاون بين الشركة القابضة للصوامع والوكالة الإيطالية
  • فيديو صادم.. روبوت يضرب رئيس شركته!
  • 7 نصائح لحماية هاتفك الذكي من محاولات الاختراق