متسللون روس يستخدمون أدوات OpenAI لصقل الهجمات الإلكترونية
تاريخ النشر: 15th, February 2024 GMT
تقول Microsoft وOpenAI إن العديد من مجموعات القرصنة المدعومة من الدولة تستخدم أدوات الذكاء الاصطناعي التوليدية (GAI) لدعم الهجمات الإلكترونية.
يشير الثنائي إلى أن الأبحاث الجديدة توضح لأول مرة كيفية استخدام المتسللين المرتبطين بالحكومات الأجنبية لـ GAI. وترتبط الجماعات المعنية بعلاقات مع الصين وروسيا وكوريا الشمالية وإيران.
وفقًا للشركات، تستخدم الجهات الحكومية GAI لتصحيح الأخطاء البرمجية، والبحث عن معلومات مفتوحة المصدر لأهداف البحث، وتطوير تقنيات الهندسة الاجتماعية، وصياغة رسائل البريد الإلكتروني التصيدية، وترجمة النصوص. تقول OpenAI (التي تشغل منتجات Microsoft GAI مثل Copilot) إنها أغلقت وصول المجموعات إلى أنظمة GAI الخاصة بها بعد اكتشاف أنهم كانوا يستخدمون أدواتها.
كانت المجموعة الروسية سيئة السمعة Forest Blizzard (المعروفة باسم Fancy Bear أو APT 12) إحدى الجهات الفاعلة الحكومية التي قيل إنها استخدمت منصة OpenAI. وقالت الشركة إن المتسللين استخدموا أدوات OpenAI "في المقام الأول للبحث مفتوح المصدر في بروتوكولات الاتصالات عبر الأقمار الصناعية وتكنولوجيا التصوير الراداري، وكذلك لدعم مهام البرمجة النصية".
وكجزء من جهودها في مجال الأمن السيبراني، تقول مايكروسوفت إنها تتعقب شمال 300 مجموعة قرصنة، بما في ذلك 160 جهة فاعلة من الدول القومية. وشاركت معرفتها بهم مع OpenAI للمساعدة في اكتشاف المتسللين وإغلاق حساباتهم.
تقول OpenAI إنها تستثمر في الموارد لتحديد وتعطيل أنشطة الجهات الفاعلة في مجال التهديد على منصاتها. يستخدم موظفوها عددًا من الأساليب للنظر في استخدام المتسللين لأنظمتها، مثل استخدام نماذجها الخاصة لمتابعة العملاء المتوقعين، وتحليل كيفية تفاعلهم مع أدوات OpenAI وتحديد أهدافهم الأوسع.
بمجرد اكتشاف هؤلاء المستخدمين غير الشرعيين، تقول OpenAI إنها تعطل استخدامهم للمنصة من خلال إغلاق حساباتهم، أو إنهاء الخدمات، أو تقليل وصولهم إلى الموارد.
المصدر: بوابة الوفد
إقرأ أيضاً:
فضيحة قانونية في ألاباما.. محامون يستخدمون الذكاء الاصطناعي ويستشهدون بقوانين وهمية
كشفت قاضية اتحادية، الأربعاء الماضي، أنها تفكر في فرض عقوبات على محامين من شركة محاماة باهظة التكاليف، تم التعاقد معها، من أجل الدفاع عن نظام السجون في ولاية ألاباما، وذلك عقب إقدام أحد محاميها على استخدام تطبيق الذكاء الاصطناعي "تشات جي بي تي" بغية إعداد مذكرتين قانونيتين، قد تضمنتا إشارات إلى اقتباسات غير موجودة في الأصل.
وقالت القاضية الاتحادية، آنا ماناسكو، بعد أن عقدت جلسة استماع في برمنغهام لاستجواب المحامين المنتمين إلى شركة "باتلر سنو" بخصوص تلك المذكرات القانونية، إنّ: "هناك تحذيرات واسعة النطاق على المستوى الوطني من المحاكم بشأن استخدام الذكاء الاصطناعي في إعداد المذكرات القانونية".
وأوضحت ماناسكو، أنّ: "التحذيرات قد أتت بسبب احتمالية احتواء تطبيقات الذكاء الاصطناعي على معلومات غير دقيقة"، فيما أبرزت أنها تدرس مجموعة من العقوبات المحتملة، بما في ذلك فرض غرامات مالية، مع منح الشركة مهلة 10 أيام لتقديم مذكرة قانونية إلى المحكمة.
إلى ذلك، قدم محامو شركة "باتلر سنو" اعتذارات متكررة خلال الجلسة. وقالوا إن أحد شركاء الشركة، وهو مات ريفز، قد استخدم برنامج "تشات جي بي تي" من أجل البحث عن سوابق قانونية تدعم موقفهم، غير أنه لم يتحقق من دقة تلك المعلومات قبل إضافتها إلى المذكرات المقدمة للمحكمة.
وبحسب محامو الشركة فإنّه قد تبيّن لاحقا أن تلك الإشارات كانت "مجرّد هلوسات"، أي أنها اقتباسات خاطئة، صادرة عن نظام الذكاء الاصطناعي. ووقّع أربعة من المحامين، من بينهم ريفز، على الوثائق التي تضمنت هذه المعلومات الخاطئة.
وفي السياق نفسه، كتب محامو الشركة خلال ردهم على القاضية: "شركة باتلر سنو تشعر بالحرج مما حدث، وهو تصرف مخالف تماما للحكمة السليمة ولسياسة الشركة"، مؤكدين: "لا عذر لاستخدام تشات جي بي تي كمصدر للسوابق القانونية، دون التحقق من صحة المصادر التي يقوم بتوفيرها، حتى لو كان ذلك من أجل دعم مبادئ قانونية راسخة".
ووجّه ريفز كلامه للقاضية، بالقول: "أنا وحدي من أتحمل المسؤولية الكاملة عن الاستشهادات القانونية الخاطئة، وآمل ألا تعاقبي زملائي على ذلك".