تخترق الحماية .. اكتشاف نماذج ذكاء اصطناعي خبيثة على «Hugging Face» |تفاصيل
تاريخ النشر: 9th, February 2025 GMT
اكتشف باحثون في مجال الأمن السيبراني نماذج خبيثة للذكاء الاصطناعي على منصة Hugging Face تستخدم تقنية جديدة تعتمد على ملفات Pickle "المكسورة" لتجاوز أدوات الكشف عن البرمجيات الضارة.
تفاصيل الهجوم: كيف تم استغلال Pickle؟وكشف الباحث الأمني كارلو زانكي من شركة ReversingLabs أن الملفات الضارة كانت مخبأة داخل أرشيفات PyTorch، حيث تم وضع شيفرة خبيثة في بداية الملفات، مما يسمح بتنفيذ هجوم عبر "Shell عكسي" يتصل بعنوان IP محدد مسبقًا.
أُطلق على هذه الطريقة اسم "nullifAI"، وهي تستغل نقاط الضعف في آليات الأمان المستخدمة لاكتشاف النماذج الضارة. وقد تم تحميل النماذج على المستودعات التالية في Hugging Face:
glockr1/ballr7who-r-u0000/0000000000000000000000000000000000000لماذا يمثل Pickle خطرًا أمنيًا؟يعد تنسيق Pickle خيارًا شائعًا لتوزيع نماذج الذكاء الاصطناعي، لكنه يحمل مخاطر أمنية كبيرة، حيث يتيح تنفيذ أوامر عشوائية بمجرد تحميله وإلغاء تسلسله (Deserialization).
في هذه الحالة، استخدم المهاجمون تنسيق 7z بدلاً من ZIP لضغط النماذج، مما سمح لهم بتجاوز أداة Picklescan، وهي أداة مخصصة لاكتشاف الملفات المشبوهة على Hugging Face.
ثغرة في آليات الكشف.. وكيف تم استغلالها؟أوضح الباحثون أن هذه الملفات مصممة بحيث يتم تنفيذ الشيفرة الخبيثة قبل تعطل عملية إلغاء التسلسل، مما يمنع أدوات الفحص من اكتشافها.
وقال زانكي:"تتم معالجة أكواد Pickle بالتسلسل، مما يسمح بتنفيذ الأوامر الضارة قبل اكتشاف المشكلة. في هذه الحالة، لم تستطع أدوات الفحص في Hugging Face تصنيف النموذج على أنه غير آمن."
ما الإجراءات التي تم اتخاذها؟قامت Hugging Face بتحديث أداة Picklescan لسد هذه الثغرة ومنع تنفيذ الشيفرات الضارة باستخدام نفس الأسلوب.
تواصل شركات الأمن السيبراني مراقبة مستودعات الذكاء الاصطناعي بحثًا عن نماذج مشبوهة قد تستخدم تقنيات مماثلة في المستقبل.
ماذا يعني هذا للمطورين والمستخدمين؟يُحذر الخبراء من مخاطر تحميل نماذج الذكاء الاصطناعي من مصادر غير موثوقة، وينصحون باستخدام بيئات تشغيل معزولة (Sandboxing) عند اختبار النماذج الجديدة.
المصدر: صدى البلد
كلمات دلالية: الذكاء الاصطناعي ذكاء الاصطناعي المزيد
إقرأ أيضاً:
آبل تدرس الاعتماد على OpenAI أو أنثروبيك لتطوير Siri
أفاد تقرير صادر عن وكالة “بلومبرج”، أن شركة آبل Apple تدرس التخلي مؤقتا عن استخدام تقنياتها الخاصة في مجال الذكاء الاصطناعي لصالح الاعتماد على نماذج من تطوير شركات خارجية مثل OpenAI وأنثروبيك، وذلك ضمن خطط تحديث مساعدها الصوتي Siri المقرر إطلاقه في العام المقبل.
ونقل التقرير عن مصادر مطلعة، أن آبل طلبت من الشركتين بدء تدريب نماذج الذكاء الاصطناعي الخاصة بهما Claude من أنثروبيك وChatGPT من OpenAI، لاختبار أدائهما ضمن بيئة مساعد Siri.
وفقا للمصادر، لم تتخذ آبل قرارا نهائيا بعد بشأن الجهة التي ستعتمد عليها.
رغم هذه الخطوة، لا تزال آبل تعمل على مشروع داخلي يعرف باسم LLM Siri، الذي يعتمد على نماذج ذكاء اصطناعي مطورة داخل الشركة.
ومع ذلك، لم تصدر آبل أو OpenAI أو أنثروبيك أي تعليقات رسمية ردا على استفسارات “بلومبرج”.
وكانت آبل قد أكدت في مارس الماضي، تأجيل إطلاق مزايا الذكاء الاصطناعي الجديدة، لا سيما التحسينات المرتقبة على Siri، إلى العام المقبل، بعد أن كانت هذه المزايا محط تركيز كبير في حملات تسويقية وتلفزيونية قامت الشركة بسحبها لاحقا.
وتشمل الميزات المؤجلة قدرة Siri على فهم السياق الشخصي عبر التطبيقات وتنفيذ أوامر معقدة.
وتأتي هذه التطورات في وقت يواصل فيه منافسو آبل مثل جوجل ومايكروسوفت وOpenAI التقدم بخطى سريعة في مجال الذكاء الاصطناعي، ما يثير تساؤلات حول قدرة آبل على الحفاظ على مكانتها الريادية كمبتكر تقني.
ويعزز التقرير الجديد من المخاوف بشأن تأخر آبل عن ركب الثورة التقنية المقبلة.
في يونيو الماضي، كشفت آبل عن إطار عمل جديد يدعى Foundation Models خلال مؤتمر المطورين السنوي الخاص بها، والذي يتيح للمطورين الوصول إلى نماذج اللغة الكبيرة LLMs الخاصة بها والعمل بها مباشرة على الأجهزة، ما يعزز الخصوصية ويتيح استخدام الميزات دون اتصال بالإنترنت.
ووفقا لـ “بلومبرج”، فإن هذا الإطار يشغل حاليا معظم ميزات الذكاء الاصطناعي لدى آبل.
ورغم أن آبل تواصل تسويق مقاربتها المتأنية في تبني الذكاء الاصطناعي، مع التركيز على الخصوصية والمعالجة على الجهاز بدلا من تقديم أداء أقصى، فإن سرعة تطور التقنية قد تؤدي إلى خسارة في الحصة السوقية لصالح منافسين يطرحون ميزات متقدمة بالفعل في 2025، وليس في 2026 أو بعده.
تجدر الإشارة أيضا إلى أن آبل قررت تأجيل إطلاق خدمتها الصحية المعتمدة على الذكاء الاصطناعي وتحديث تطبيق Health إلى أواخر عام 2026.