في مفاجأة قد تعيد تشكيل طريقة تعامل العالم مع أمن الذكاء الاصطناعي، كشف مختبر إيكارو للأبحاث عن دراسة جديدة توضح أن تجاوز قيود روبوتات الدردشة الذكية لا يحتاج إلى أكثر من… قصيدة شعرية. 

الدراسة، التي جاءت بعنوان الشعر العدائي كآلية كسر حماية عالمية بدورة واحدة في نماذج اللغات الكبيرة، أثارت موجة من الجدل حول مدى هشاشة أنظمة الحماية في أكثر نماذج الذكاء الاصطناعي تقدمًا.

فبدلاً من استخدام هجمات تقنية معقدة أو أوامر ملتوية، اكتشف الباحثون أن صياغة الطلبات في شكل شعر يمكن أن تُربك أنظمة الحماية وتجبر الروبوتات على تقديم إجابات محظورة أو حساسة.

 ووفقاً لنتائج الدراسة، يعمل الأسلوب الشعري كعامل كسر حماية متعدد الوظائف، يسمح بتخطي الكثير من الضوابط المصممة لحماية المستخدمين ومنع المحتوى الضار.

وبحسب تجربة مختبر إيكارو، وصلت نسبة النجاح العامة لهذا الأسلوب إلى 62%، ما يعني أن أكثر من نصف المحاولات التي استخدمت صياغة شعرية نجحت في دفع روبوتات الذكاء الاصطناعي لتوليد مخرجات مصنفة على أنها خطيرة أو ممنوعة. 

وشملت تلك المخرجات معلومات تتعلق بتصنيع أسلحة نووية، ومحتوى متعلق بالاعتداء الجنسي على الأطفال، بالإضافة إلى مواد تتعلق بالانتحار وإيذاء النفس، وهي موضوعات محظورة عالميًا بموجب سياسات المنصات التقنية والجهات التنظيمية.

الدراسة لم تقتصر على نموذج واحد، بل شملت مجموعة واسعة من أشهر نماذج الذكاء الاصطناعي المتاحة، بما في ذلك نماذج GPT من OpenAI، وGoogle Gemini، وClaude من Anthropic، وعدد من النماذج الأخرى التي يزداد اعتماد المستخدمين عليها عالميًا.

 وبحسب الورقة، قدمت نماذج Gemini وDeepSeek وMistralAI أعلى مستويات الاستجابة، حيث كانت أكثر قابلية للوقوع في فخ "الشعر العدائي" وتجاوز إجراءات الأمان الخاصة بها.

على الجانب الآخر، جاءت نماذج GPT-5 من OpenAI وClaude Haiku 4.5 من Anthropic في المرتبة الأقل قابلية للاختراق، إذ أظهرت مقاومة أعلى لمحاولات كسر القيود حتى عند استخدام الأسلوب الشعري. 

ومع ذلك، تشير الدراسة إلى أن جميع النماذج تقريبًا قدمت شكلاً من أشكال الاستجابة الخطرة في وقت ما أثناء الاختبارات، وهو ما يثير تساؤلات مهمة حول مدى نضج أنظمة الأمان الحالية.

ورغم النتائج المفصلة، امتنعت الدراسة عن مشاركة النصوص الشعرية المستخدمة في تنفيذ الهجمات، مؤكدة أنها خطيرة للغاية ولا يجب نشرها للعامة، لكن الفريق قدّم في المقابل نسخة مخففة توضح الفكرة العامة، لإثبات أن الاختراق لا يتطلب تعقيدًا كبيرًا، بل أسلوبًا أدبيًا بحتًا قادرًا على مراوغة الخوارزميات.

وفي تصريحات لموقع Wired، قال أحد الباحثين إن التحايل عبر الشعر أسهل مما يتخيل الكثيرون، مضيفًا أن ما يجعل الأمر خطيرًا هو بساطته، فالحيلة لا تعتمد على أدوات أو تقنيات برمجية متقدمة، وإنما على التلاعب في الشكل اللغوي فقط. 

وأوضح أن الفريق يتعامل مع النتائج بحذر شديد، نظرًا لأن نشر تفاصيل الاختبارات قد يفتح الباب أمام استخدامها بشكل ضار.

وتسلط الدراسة الجديدة الضوء على تحديات متزايدة تواجه مطوري الذكاء الاصطناعي، لا سيما وأن نماذج اللغة الكبيرة تعتمد بشكل أساسي على فهم السياق وليس الشكل الأدبي، وهو ما قد يتيح لأساليب مثل الشعر أو النثر الحر أو المحاكاة الأدبية أن تصبح "بوابة خلفية" غير متوقعة تسمح بالالتفاف على قواعد الأمان.

وتأتي هذه النتائج في وقت يشهد فيه العالم توسعًا هائلًا في استخدام روبوتات الدردشة في التعليم والصحة والاستشارات والتطوير البرمجي، ما يجعل أي ثغرة أمنية—even إن كانت في شكل قصيدة—سببًا كافيًا لدق ناقوس الخطر.
مع استمرار تطور النماذج الذكية، تفتح الدراسة الباب أمام سؤال جوهري: هل يمكن للنظام أن يصبح ذكيًا بما يكفي لكشف نية المحتوى بغض النظر عن شكله الأدبي؟ أم أن الإبداع البشري سيظل قادرًا على تجاوز حدود الذكاء الاصطناعي؟

المصدر: بوابة الوفد

كلمات دلالية: الذکاء الاصطناعی

إقرأ أيضاً:

جوجل تختبر عناوين ومُلخصات الذكاء الاصطناعي في Discover

في خطوة جديدة تظهر مدى تغلغل الذكاء الاصطناعي في خدمات جوجل اليومية، بدأت الشركة باختبار معالجة المقالات باستخدام الذكاء الاصطناعي داخل منصة Discover، مما أثار جدلًا بين الناشرين والخبراء حول دقة المعلومات ودور جوجل كوسيط إعلامي. 

لاحظ موقع The Verge أن بعض المقالات المعروضة لمستخدمي Discover تحمل عناوين رئيسية مولدة بالذكاء الاصطناعي تختلف عن العناوين الأصلية المنشورة، وأحيانًا تكون مضللة أو خاطئة تمامًا.

على سبيل المثال، تم عرض عنوان جديد لمقال منشور على Ars Technica باسم "الكشف عن سعر جهاز Steam Machine"، بينما كان العنوان الأصلي يقول: "جهاز Steam Machine من Valve يبدو كجهاز تحكم، لكن لا تتوقع أن يكون سعره كذلك". لا توجد أي معلومات رسمية عن الأسعار، سواء في المقال الأصلي أو في أي منشور آخر من Valve. 

هذه الفجوة بين العنوان المولّد بالذكاء الاصطناعي والمحتوى الأصلي توضح المخاطر التي قد تنجم عن اعتماد الذكاء الاصطناعي في صياغة العناوين، خصوصًا أن المستخدم قد يتلقف معلومات غير دقيقة دون وعي.

لم يقتصر الأمر على العناوين، بل شمل المُلخصات أيضًا. لاحظ فريق Engadget أن Discover قد يعرض العناوين الأصلية مع ملخصات مولدة بالذكاء الاصطناعي، تحمل علامة تشير إلى أنها مولدة بالذكاء الاصطناعي، ما يُنبّه المستخدم لاحتمالية وجود أخطاء، لكنه لا يمنع هذه الأخطاء من الوصول إلى القراء. بعض الخبراء يرون أن الحذر الأفضل كان يتمثل في الامتناع عن استخدام الذكاء الاصطناعي في هذه الحالات حتى تتحقق دقة المعلومات بشكل كامل.

من جانبها، أوضحت مالوري ديليون، ممثلة جوجل، أن هذه الحالات كانت جزءًا من "تجربة صغيرة في واجهة المستخدم لمجموعة فرعية من مستخدمي Discover". وأضافت: "نختبر تصميمًا جديدًا يُغير موضع العناوين الحالية لتسهيل استيعاب تفاصيل الموضوع قبل استكشاف الروابط من جميع أنحاء الويب". 

وعلى الرغم من أن التجربة تبدو غير ضارة من الناحية النظرية، إلا أن جوجل لديها تاريخ طويل من التوتر مع الناشرين الإلكترونيين، حيث سعت الشركات الإعلامية مرارًا للحصول على تعويضات مقابل استخدام محتواها، وفي بعض الحالات قامت جوجل بحذف تلك المصادر من نتائج البحث، ثم بررت ذلك بأنها لا تضيف الكثير إلى أرباحها الإعلانية.

في الوقت نفسه، توسّع جوجل تجربة الذكاء الاصطناعي عبر وضع AI Mode، وهو روبوت دردشة وصفه تحالف وسائل الإعلام الإخبارية بأنه "سرقة" صريحة للمحتوى. نشر روبي ستاين، نائب رئيس المنتجات في بحث جوجل، على منصة X أن الشركة تختبر دمج وضع الذكاء الاصطناعي بشكل أكثر تكاملاً مع البحث على الأجهزة المحمولة، بحيث يظهر على نفس شاشة "نظرة عامة على الذكاء الاصطناعي" بدلاً من وجود خدمتين منفصلتين في علامات تبويب مختلفة. 

هذه الخطوة قد تجعل تجربة البحث أكثر تكاملاً، لكنها أيضًا ترفع التساؤلات حول دقة وموثوقية المعلومات المعروضة للمستخدمين، خصوصًا إذا اعتمدت على الذكاء الاصطناعي في إعادة صياغة الأخبار والمُلخصات.

تظهر هذه التحركات أن جوجل تسعى إلى دمج الذكاء الاصطناعي بشكل أعمق في تجربة المستخدم، لكن التحدي الأكبر يتمثل في ضمان دقة المعلومات والحفاظ على مصداقية المصادر. وبينما يرحب بعض المستخدمين بميزات الذكاء الاصطناعي التي توفر ملخصات سريعة وتسهّل الوصول إلى المعلومات، يحذر خبراء الإعلام من المخاطر المحتملة لتضليل القراء ونشر معلومات غير دقيقة قد تؤثر على الفهم العام للأخبار.

مع استمرار التجارب، يظل السؤال قائمًا: هل سيصبح الذكاء الاصطناعي في Discover أداة لتعزيز المعلومات، أم أنه سيزيد من ضبابية المحتوى ويضع جوجل في مواجهة جديدة مع الناشرين ومستخدمي الأخبار حول العالم؟

مقالات مشابهة

  • جوجل تختبر عناوين ومُلخصات الذكاء الاصطناعي في Discover
  • أنثروبيك تدرس طرح أسهمها للاكتتاب الأولي وسط احتدام المنافسة في الذكاء الاصطناعي
  • روسيا تسقط أكثر من 100 طائرة مسيّرة أوكرانية
  • فرنسا تستعرض أحدث أسلحتها العالمية في معرض إيديكس 2025.. صور
  • ميسترال رائدة الذكاء الاصطناعي في أوروبا تطرح نماذج متقدمة جديدة أصغر حجما: إليك ما تحتاج معرفته
  • الأمم المتحدة تحذر من الذكاء الاصطناعي
  • الذكاء الاصطناعي في المدارس: أي الدول الأوروبية يعتمد معلموها هذه التقنيات أكثر من غيرها؟
  • بحث جديد يكشف أن الشعر يخدع روبوتات الدردشة بالذكاء الاصطناعي لتجاهل قواعد السلامة
  • كيف تكشف التزييف في عصر الذكاء الاصطناعي؟