هاكر يربح 47000 دولار من خلال حيلة نصية ذكية احتالت على الذكاء الاصطناعي
تاريخ النشر: 1st, December 2024 GMT
تمكن هاكر يُعرف باسم "p0pular.eth" من اختراق بوت ذكاء اصطناعي يُدعى "Freysa" في تجربة مدفوعة الأجر، وحقق جائزة مالية قدرها 47000 دولار بعد 482 محاولة ذكية.
بحسب "the-decoder"صُمم البوت لمنع تحويل الأموال تحت أي ظرف، ولكن تم التلاعب به عبر رسالة نصية متقنة تخطت أنظمة الأمان.
كيف تمت عملية الاختراق؟ أقنع الهاكر البوت بأنه يمتلك صلاحيات إدارية، مما منعه من عرض تحذيرات الأمان.
أعاد الهاكر برمجة وظيفة "approveTransfer" بحيث تجعل البوت يعتقد أن العملية تتعلق بقبول دفعات واردة بدلاً من تحويل أموال للخارج.
أعلن الهاكر عن وديعة مزيفة بقيمة 100 دولار. ونتيجة لذلك، قام البوت بتنفيذ وظيفة التحويل وأرسل الرصيد الكامل الذي يمتلكه، وهو 13.19 ETH (حوالي 47000 دولار)، إلى الهاكر.
تجربة مدفوعة الأجر لزيادة التحديعملت التجربة كمسابقة مدفوعة الأجر، حيث دفع المشاركون رسومًا زادت تدريجيًا مع تضخم قيمة الجائزة.
بدأت الرسوم من 10 دولارات لكل محاولة ووصلت إلى 4,500 دولار في النهاية.
تم تقسيم الرسوم بين الجائزة (70%) والمطور (30%)، مع إتاحة الشيفرة المصدرية للعقد الذكي وواجهة المستخدم لضمان الشفافية.
متوسط التكلفة لكل رسالة بلغ 418.93 دولار، مع مشاركة 195 مشاركًا في المجمل.
مخاوف أمنية بشأن الذكاء الاصطناعيتكشف هذه الحالة عن مدى هشاشة أنظمة الذكاء الاصطناعي أمام هجمات التلاعب بالنصوص (Prompt Injections)، وهي تقنية تعتمد على التلاعب اللغوي بدلاً من الاختراق التقني.
ورغم أن هذه الثغرات ظهرت منذ إصدار GPT-3، إلا أنه لا توجد حتى الآن دفاعات فعالة تمنع مثل هذه الهجمات.
انعكاسات على التطبيقات العمليةيثير نجاح هذا الاختراق البسيط نسبيًا قلقًا واسعًا حول أمن أنظمة الذكاء الاصطناعي المستخدمة في تطبيقات حساسة مثل المعاملات المالية.
فمع زيادة استخدام الذكاء الاصطناعي في الحياة اليومية، يصبح تطوير أنظمة أمان متقدمة ضرورة حتمية لحماية البيانات والمستخدمين.
المصدر: صدى البلد
كلمات دلالية: دولار ذكاء اصطناعي هاكر المزيد المزيد الذکاء الاصطناعی
إقرأ أيضاً:
تليفونك بيراقبك .. كيف تجمع أدوات الذكاء الاصطناعي بياناتك
تجمع أدوات الذكاء الاصطناعي بياناتٍ كثيرةً عن المستخدمين للتنبؤ بسلوكهم وفي المقابل، يمكنك منعها من تتبعك باتباع بعض الخطوات.
مخاوف كبيرةوفقا لموقع" indiatvnews "فمن استخدام مساعدي الذكاء الاصطناعي مثل ChatGPT أو Microsoft Copilot إلى تتبع روتين اللياقة البدنية اليومي باستخدام الساعات الذكية، يتفاعل العديد من الأفراد مع أنظمة أو أدوات الذكاء الاصطناعي يوميًا. وبينما تُعزز هذه التقنيات بلا شك الراحة، إلا أنها تُثير أيضًا مخاوف كبيرة بشأن خصوصية البيانات.
أشار كريستوفر رامزان، الأستاذ المساعد في الأمن السيبراني بجامعة وست فرجينيا، أن برامج الذكاء الاصطناعي التوليدية تعتمد على كميات هائلة من بيانات التدريب لإنتاج محتوى جديد، مثل النصوص أو الصور، بينما يستخدم الذكاء الاصطناعي التنبئي البيانات للتنبؤ بالنتائج بناءً على سلوكك السابق - مثل تقييم احتمالية تحقيق هدفك اليومي من الخطوات أو التوصية بأفلام قد تستمتع بها. يمكن استخدام كلا النوعين من الذكاء الاصطناعي لجمع معلومات عن الأفراد.
كيف تجمع أدوات الذكاء الاصطناعي البيانات
يوضح رامزان أن مساعدي الذكاء الاصطناعي المُولِّدين، مثل ChatGPT وGoogle Gemini، يجمعون جميع المعلومات التي يُدخلها المستخدمون في مربع الدردشة. ويُسجَّل كل سؤال وإجابة ورسالة يُدخلها المستخدمون، ويُخزَّن ويُحلَّل لتحسين نموذج الذكاء الاصطناعي. ويُشير إلى أنه على الرغم من أن OpenAI تُتيح للمستخدمين خيار إلغاء الاشتراك في استخدام المحتوى إلا أنها لا تزال تجمع البيانات الشخصية وتحتفظ بها. ورغم ادعاء بعض الشركات إخفاء هوية هذه البيانات - أي تخزينها دون تحديد هوية مُقدِّميها - إلا أن خطر إعادة تحديد هوية البيانات لا يزال قائمًا.
خصوصية بياناتيوضح رامزان أنه بالإضافة إلى مساعدي الذكاء الاصطناعي ، تجمع منصات التواصل الاجتماعي مثل فيسبوك وإنستجرام وتيك توك بيانات مستخدميها باستمرار لتحسين نماذج الذكاء الاصطناعي التنبؤية.
وعلاوة على ذلك، يشير رامزان إلى أن الأجهزة الذكية، بما في ذلك مكبرات الصوت المنزلية، وأجهزة تتبع اللياقة البدنية، والساعات الذكية، تجمع المعلومات باستمرار من خلال أجهزة الاستشعار البيومترية، والتعرف على الصوت، وتتبع الموقع..
غالبًا ما تُخزَّن البيانات التي تجمعها أدوات الذكاء الاصطناعي في البداية لدى شركة موثوقة، ولكن يُمكن بيعها أو مشاركتها بسهولة مع مؤسسات قد لا تكون بنفس القدر من الموثوقية ويؤكد أن القوانين الحالية لا تزال قيد التطوير لمواجهة تحديات الذكاء الاصطناعي وخصوصية البيانات.