قد يسرق أموالك.. تحذير مثير من "شات جي بي تي"!
تاريخ النشر: 11th, November 2024 GMT
الاقتصاد نيوز - متابعة
في عالم تتقدم فيه التكنولوجيا باستمرار، تتزايد معه المخاوف المتعلقة بالسلامة. واكتشف الباحثون مؤخراً طريقة جديدة يمكن للمحتالين من خلالها إساءة استخدام واجهة برمجة التطبيقات الصوتية في الوقت الفعلي من "OpenAI" لبرنامج "ChatGPT-4o" للقيام بعمليات احتيال مالية وسرقة هوية. يقدم نموذج "ChatGPT-4o" ميزات مبتكرة مثل النص والصوت وحتى التفاعلات القائمة على الرؤية، مما يفتح المجال أمام العديد من المزايا وبعض المخاطر.
وقامت "OpenAI" بدمج العديد من إجراءات الحماية التي تهدف إلى اكتشاف المحتوى الضار ومنعه، وخاصة في التفاعلات الصوتية. على سبيل المثال، تتضمن تقنية لمنع انتحال الهوية عن طريق تكرار الأصوات غير المصرح بها، وفقاً لما ذكرته "digit.in" واطلعت عليه "العربية Business".
ومع ذلك، اكتشف الباحثون من "UIUC " أن هذه الحماية قد لا تكون كافية. كما هو موضح في دراستهم، يمكن لعمليات الاحتيال المدعومة بالذكاء الاصطناعي والتي تنطوي على التحويلات المصرفية وسرقة بطاقات الهدايا وسرقة بيانات اعتماد Instagram أو Gmail تجاوز هذه الدفاعات ببعض التعديلات السريعة.
ما دفع الباحثين لاستخدام أساليب احتيالية متنوعة للكشف عن نقاط الضعف في أنظمة الذكاء الاصطناعي، حيث قاموا بتكوين وكلاء ذكاء اصطناعي مزودين بقدرات صوتية مشابهة لـ ChatGPT-4 لتنفيذ عمليات مثل ملء نماذج البنوك، والتعامل مع رموز المصادقة الثنائية، واتباع خطوات محددة للاحتيال. وخلال التجارب، مثل الباحثون دور الضحايا المتفاعلين مع وكيل الذكاء الاصطناعي، ووصلوا إلى مواقع مصرفية حقيقية للتأكد من إمكانية إتمام المعاملات بنجاح.
وأوضح دانييل كانغ من جامعة "إلينوي في أوربانا-شامبين": "قمنا بمحاكاة الاحتيال عبر التفاعل اليدوي مع الوكيل الصوتي، ولعبنا دور الضحية الساذجة". وقد تراوحت نسبة النجاح بين 20% و60%، حيث استغرقت بعض المهام ما يصل إلى 26 خطوة للمتصفح و3 دقائق لتنفيذها.
وحققت بعض عمليات الاحتيال، مثل سرقة بيانات الاعتماد على Gmail، معدل نجاح بنسبة 60%، في حين حققت عمليات أخرى مثل تحويلات العملات المشفرة أو سرقة حسابات Instagram حوالي 40%. وأشار الباحثون إلى أن كل عملية احتيال كانت رخيصة التنفيذ، حيث بلغت تكلفة التحويلات المصرفية حوالي 2.51 دولار، وبلغ متوسط تكلفة عمليات الاحتيال الأخرى 0.75 دولار فقط.
وردًا على ذلك، سلطت OpenAI الضوء على العمل الذي تقوم به لتحسين الأمان من خلال أحدث طراز لها، o1-preview. وقال متحدث باسم OpenAI لـ" Bleeping Computer": "نعمل باستمرار على تحسين "شات جي بي تي" في إيقاف المحاولات المتعمدة لخداعه، من دون فقدان فائدته أو إبداعه، وأحدث نموذج استدلال o1 لدينا هو الأكثر كفاءة وأمانًا حتى الآن، ويتفوق بشكل كبير على النماذج السابقة في مقاومة المحاولات المتعمدة لإنشاء محتوى غير آمن".
وأكدت OpenAI" أيضًا أن هذه الدراسات تساعدها في تعزيز حماية "شات جي بي تي".
المصدر: وكالة الإقتصاد نيوز
كلمات دلالية: كل الأخبار كل الأخبار آخر الأخـبـار
إقرأ أيضاً:
OpenAI تكشف عن تسريب محدود عبر مزود تحليلات خارجي
صراحة نيوز -أعلنت شركة OpenAI عن وقوع حادث أمني في المزود الخارجي للتحليلات Mixpanel أدى إلى تسريب بيانات محدودة تتعلق ببعض المستخدمين.
وأكدت الشركة أن الحادث لا يشكل خرقًا لأنظمتها الداخلية، وأن مستخدمي منصة ChatGPT عبر الموقع أو التطبيق لم يتأثروا.
وبحسب البيان، تمكن المخترق من الوصول إلى معلومات مثل الاسم، البريد الإلكتروني، نظام التشغيل، المتصفح، الموقع التقريبي، وبعض المعرفات المرتبطة بالحساب أو المؤسسة، دون تسريب بيانات حساسة مثل محادثات ChatGPT، كلمات المرور، تفاصيل الدفع أو بطاقات الهوية.
وأوضحت OpenAI أن المتأثرين المحتملين هم مستخدمو منصة platform.openai.com API من المطورين أو المؤسسات، فيما لم يتأثر المستخدمون العاديون.
وعملت الشركة على إشعار المتأثرين مباشرة، وإيقاف استخدام Mixpanel نهائيًا، وتعزيز إجراءات الأمان، مع توصية المتأثرين بتفعيل المصادقة متعددة العوامل ومراقبة أي رسائل مشبوهة أو محاولات احتيال.
وأشارت OpenAI إلى أن الحادث يُبرز أهمية حماية البيانات على مستوى الشركة والشركاء الخارجيين على حد سواء.