كشفت دراسة جديدة أجرتها كاسبرسكي عن اتجاه متزايد نحو «حقن الأوامر غير المباشر»، وهو أسلوب يُستخدم للتلاعب بمخرجات النماذج اللغوية الكبيرة (LLMs) مثل ChatGPT وروبوتات المحادثة البحثية المدعومة بالذكاء الاصطناعي، ورغم عدم العثور على أمثلة لأفعال مدمرة خطيرة بواسطة روبوتات المحادثة، إلا أن احتمال إساءة استخدامها لا يزال قائماً.

تُعد النماذج اللغوية الكبيرة أدوات قوية لاستخدامات مختلفة، بدايةً من تحليل المستندات، مروراً بتعين الموظفين، وانتهاءً بالبحث عن التهديدات. ومع ذلك، اكتشف باحثو كاسبرسكي ثغرة أمنية يمكن لمصادر التهديد الخبيثة استغلالها لتضمين تعليمات مخفية داخل المواقع الإلكترونية والمستندات عبر الإنترنت. وبعد ذلك، يمكن أن تلتقط الأنظمة القائمة على النماذج اللغوية الكبيرة هذه التعليمات، مما قد يؤثر على نتائج البحث أو استجابات روبوتات المحادثة.

حددت الدراسة عدة استخدامات لحقن الأوامر غير المباشر:

عمليات الحقن المتعلقة بالموارد البشرية: يقوم الباحثون عن الوظائف بتضمين أوامر مخصصة في سيرهم الذاتية للتلاعب بخوارزميات التوظيف وضمان الحصول على مخرجات أو أولويات مواتية بواسطة أنظمة الذكاء الاصطناعي. وتُطبق أساليب مثل استخدام الخطوط الصغيرة أو مطابقة لون النص مع الخلفية لإخفاء الهجوم عن المراجعين البشريين.عمليات الحقن الإعلانية: يقوم المعلنون بحقن الأوامر في صفحات الهبوط للتأثير على روبوتات المحادثة البحثية لتوليد مراجعات إيجابية للمنتجات.عمليات الحقن الاحتجاجية: يعبر الأفراد المعارضون للاستخدام واسع النطاق للنماذج اللغوية الكبيرة عن معارضتهم عبر تضمين دعوات احتجاجية في مواقعهم الإلكترونية وملفاتهم الشخصية على وسائل التواصل الاجتماعي، من خلال أوامر فكاهية، أو جادة، أو عدوانية.عمليات الحقن كإهانة: على وسائل التواصل الاجتماعي، يوظف المستخدمون حقن الأوامر كشكل من أشكال الإهانة أو لتعطيل روبوتات البريد العشوائي، وغالباً ما يكون ذلك من خلال طلبات لتوليد قصائد، أو فن لغة ASCII، أو آراء حول مواضيع سياسية.

ورغم عدم توصل الدراسة لأي دليل على الاستخدام الخبيث لتحقيق مكاسب مالية، إلا أنها تسلط الضوء على المخاطر المستقبلية المحتملة. وعلى سبيل المثال، يمكن للمهاجمين التلاعب بالنماذج اللغوية الكبيرة لنشر معلومات مضللة أو استخراج بيانات حساسة.

علق فلاديسلاف توشكانوف، مدير مجموعة تطوير الأبحاث في فريق أبحاث تكنولوجيا تعلم الآلة لدى كاسبرسكي: «يُعد حقن الأوامر غير المباشر بمثابة ثغرة أمنية جديدة تسلط الضوء على الحاجة لاتخاذ تدابير أمنية قوية في عصر الذكاء الاصطناعي. ومن خلال فهم هذه المخاطر وتطبيق الضمانات المناسبة، يمكننا ضمان استخدام النماذج اللغوية الكبيرة بأمان ومسؤولية.»

لحماية أنظمتك الحالية والمستقبلية القائمة على النماذج اللغوية الكبيرة (LLMs)، ضع في اعتبارك النصائح التالية:

افهم نقاط الضعف المحتملة في أنظمتك القائمة على النماذج اللغوية الكبيرة، وقيّم المخاطر المرتبطة بهجمات حقن الأوامر.كن على دراية بالمخاطر المهددة للسمعة، حيث يمكن التلاعب بروبوتات التسويق لإصدار تصريحات متطرفة، مما قد يؤدي لأضرار محتملة على السمعة.تصالح مع واقع محدودية الحماية، إذ لا يمكن تحقيق الحماية الكاملة ضد حقن الأوامر، وخاصةً مع الهجمات الأكثر تعقيداً مثل الحقن متعدد الوسائط.استخدم أدوات تعديل الإدخال والإخراج لتصفية مدخلات ومخرجات النماذج اللغوية الكبيرة، ولو أنها لا توفر أماناً كاملاً.تعرف على المخاطر التي تنشأ عن معالجة المحتوى غير الموثوق أو غير المؤكد في أنظمة النماذج اللغوية الكبيرة.قيّد قدرات اتخاذ القرار لأنظمة الذكاء الاصطناعي لمنع اتخاذ إجراءات غير مقصودة.تأكد من أن جميع أجهزة الحواسيب والخوادم التي تشغل الأنظمة القائمة على النماذج اللغوية الكبيرة محمية بأدوات وممارسات أمنية حديثة.

المصدر: بوابة الوفد

كلمات دلالية: روبوتات المحادثة

إقرأ أيضاً:

"غوغل" تفعل ميزة تلخيص البريد الإلكتروني بالذكاء الاصطناعي تلقائيا في "جي ميل"

بدأت شركة « غوغل » تفعيل ميزة التلخيص التلقائي لرسائل البريد الإلكتروني داخل تطبيق « جي ميل » لمستخدمي خدمات « غوغل وورك بلاس » بالاعتماد على تقنيات الذكاء الاصطناعي الخاصة بها.

وأوضحت « غوغل » أن الميزة الجديدة مخصصة حاليا للبريد الإلكتروني المكتوب باللغة الإنجليزية، وستكون متاحة فقط في تطبيق « جي ميل » في الهواتف الذكية، على أن تصل تدريجيا خلال أسبوعين إلى مختلف الحسابات، لافتة إلى أن « جي ميل » سيعرض ملخصات تلقائية لسلاسل الرسائل المعقدة والمليئة بالردود لتظهر هذه الملخصات في أعلى واجهة المحادثة داخل التطبيق، دون الحاجة إلى طلبها يدويا كما كان الحال سابقا.

وأبرزت الشركة أن هذه الميزة تمتع بقدرتها على تحديث التلخيصات تلقائيا عند إضافة ردود جديدة إلى سلسلة الرسائل ذاتها، مما سيساعد المستخدمين في متابعة محتوى البريد الطويل أو المتشابك بنحو أكثر كفاءة خلال وقت قصير.

مقالات مشابهة

  • ميتا تستبدل البشر بالذكاء الاصطناعي في تقييم الخصوصية والمخاطر
  • جوجل تُفعّل ميزة تلخيص البريد بالذكاء الاصطناعي تلقائيًا في Gmail
  • جوجل تطلق تطبيقًا جديدًا لتشغيل نماذج الذكاء الاصطناعي على الهواتف دون اتصال بالإنترنت
  • «عين».. استدامة المياه بالذكاء الاصطناعي
  • مشهد استثنائي.. أول ظهور لمذيعات بالذكاء الاصطناعي على قناة مصرية
  • تحذيرات من نشر الأقمار الصناعية التي تعمل بالذكاء الاصطناعي
  • "غوغل" تفعل ميزة تلخيص البريد الإلكتروني بالذكاء الاصطناعي تلقائيا في "جي ميل"
  • بالذكاء الاصطناعي برا وجوا.. الأمن السعودي خط الدفاع الأول عن موسم الحج
  • جوجل تُفعل ميزة تلخيص البريد بالذكاء الاصطناعي تلقائيًا في Gmail
  • تنظيم الحج بالذكاء الاصطناعي.. التوسعة الثالثة للحرم المكي تسع 2 مليون مصل