كاسبرسكي تكشف عن عمليات احتيال العملات المشفرة المجانية على YouTube
تاريخ النشر: 9th, January 2025 GMT
كشف باحثوا كاسبرسكي عن مخطط احتيال جديد للعملات المشفرة يتلاعب بالمستخدمين لتحويل الأموال للحصول على أصول مشفرة «مجانية». ويعمل المخطط من خلال التعليقات على مقاطع الفيديو المتعلقة بموضوعات مالية عبر منصة YouTube. وكُتبت هذه التعليقات من قِبل حسابات أُنشئت حديثاً وتتضمن عبارة استرداد لمحفظة عملات مشفرة يُفترض أنها تحتوي على عملات Tether)) USDT.
يستغل مخطط الاحتيال هذا الوجود التقني لمحافظ العملات المشفرة لإضفاء المصداقية. وتُعد تفاصيل المحفظة المُقدمة أصلية ولديها رصيد بعملة USDT، مما يعزز وهم الشرعية. كما يمكن للمستخدمين عرض سجل المعاملات الخاص بها.
عندما يحاول المستخدم الوصول للمحفظة باستخدام عبارة الاسترداد، يكتشف أن سحب عملات USDT يتطلب دفع رسوم عمولة معينة بعملات Tron (TRX)، والتي لا تتضمنها المحفظة. وفي حال قام المستخدم بتحويل عملات TRX من محفظته الشخصية لتغطية الرسوم، سيُعاد توجيه هذه الأموال بشكل فوري لمحفظة أخرى يسيطر عليها المحتالون. حيث تم إعداد محفظة الطُعم كحساب متعدد التوقيعات (multisig)، مما يتطلب أذونات إضافية لتفويض المعاملات. وبذلك، لن تنجو الضحية من الفخ بعد دفع «العمولة»، ولو حاولت تحويل الأموال مباشرةً لمحفظة أخرى.
قال أولجا سفيستونوفا، كبير محللي محتوى الويب لدى كاسبرسكي: «كما يقول المثل: إذا كان الأمر يبدو أفضل من أن يكون قابلاً للتصديق، فعلى الأرجح أنه خدعة. ويستهدف مخطط الاحتيال هذا أشخاصاً يمتلكون معايير أخلاقية مشكوكاً بأمرها، ويقدم لهم فرصة استغلال غفلة شخص آخر. ولكن في الواقع، يصبح هؤلاء المستخدمين ضحايا لعمليات احتيال مُخططة بعناية دون إدراكهم لذلك. نؤكد على أهمية اليقظة والسلوك الأخلاقي عند التعامل مع منصات العملات المشفرة. إذ يواصل المحتالون تحسين أساليبهم، مما يؤكد ضرورة بقاء المستخدمين حذرين ومطلعين.»
وللبقاء آمناً عند المشاركة في الأنشطة المتعلقة بالعملات المشفرة، توصي كاسبرسكي بما يلي:
تصرف بشكل أخلاقي وحافظ على مستوىً عالٍ من الشكوكية عند تعاملك مع الأصول المشفرة «المجانية» عبر الإنترنت؛ فغالباً ما تكون عمليات خداع. اقرأ نصائحنا لاكتشاف المحتالين عبر الإنترنت
استخدم تطبيقات محفظة العملات المشفرة ومواقع التبادل جيدة السمعة، والمُجربة، والحقيقية حصراً
تحقق بعناية من تسجيل الدخول من خلال المواقع الرسمية وتنزيل التطبيقات من المصادر المشروعة فقط
استخدم حلاً شاملاً لحماية الحاسوب والهاتف الذكي لمنعك من الوصول لمواقع تصيدية أو تشغيل برمجيات خبيثة.
المصدر: بوابة الوفد
كلمات دلالية: العملات المشفرة
إقرأ أيضاً:
نماذج ذكاء اصطناعي تغير إجاباتها تبعا لطريقة تحدث المستخدم
أظهرت دراسة جديدة من جامعة أكسفورد أن نماذج الذكاء الاصطناعي مفتوحة المصدر تتأثر بإفتراضات حول هوية المستخدم، مثل العرق والجنس والعمر، مما يغير إجاباتها على أسئلة واقعية تتعلق بالرواتب، النصائح الطبية، الحقوق القانونية، والمزايا الحكومية.
إجابات متغيرة بناء على هوية المستخدموجد الباحثون أن نموذجين من نماذج الذكاء الاصطناعي المفتوحة المصدر، مثل Llama3 من Meta وQwen3 من Alibaba، يقدمان إجابات مختلفة بناء على افتراضات حول الهوية العرقية والجنسية للمستخدم. على سبيل المثال، قد يوصي أحد النماذج براتب مبدئي أقل للمتقدمين غير البيض.
وأكد الباحثون أن هذه التغيرات في الإجابات تظهر حتى عندما تكون الأسئلة موضوعية وينبغي أن تكون الإجابة عليها محايدة وغير مرتبطة بهوية الشخص.
التأثيرات الخطيرة على نصائح الصحة والقانونأظهرت الدراسة أن الذكاء الاصطناعي لا يقدم نصائح حيادية في مجالات هامة مثل الرعاية الصحية، النصائح القانونية، وتقديم مزايا حكومية.
فحتى عندما يصف المستخدمون الأعراض نفسها، تختلف الإجابات بناء على هوية المستخدم، على سبيل المثال، قد ينصح الأشخاص من خلفيات عرقية مختلفة بزيارة الطبيب بناء على نفس الأعراض.
كما لاحظ الباحثون أن بعض الخدمات الصحية النفسية بدأت تستخدم روبوتات المحادثة المدعومة بالذكاء الاصطناعي لتحديد ما إذا كان الشخص بحاجة لمساعدة إنسانية، وهذا يشير إلى أن هناك قلقا متزايدا بشأن تأثير هذه التحيزات على قرارات الصحة النفسية.
التحيزات الخفية في الذكاء الاصطناعيمن المهم أن نلاحظ أن هذه التحيزات لا تظهر من إشارات واضحة مثل ذكر المستخدم لجنسه أو عرقه، بل تنشأ من أنماط لغوية خفية يتم استخلاصها من طريقة الكتابة، وهذه الأنماط تكون سهلة التجاهل، مما يجعل من الصعب اكتشاف هذا النوع من التحيزات.
دعوة لمراجعة الأساليب وأدوات مكافحة التحيزدعا الباحثون إلى تطوير أدوات جديدة لاكتشاف هذا السلوك الخفي قبل أن يتم استخدام هذه النماذج على نطاق واسع، وقدموا مرجعا جديدا لمساعدة الأبحاث المستقبلية في هذا المجال.
وأشاروا إلى أنه من الضروري تطوير معايير لمكافحة التحيزات اللغوية في نماذج الذكاء الاصطناعي لضمان عدم تأثيرها على القرارات الهامة في الحياة اليومية.
نتائج الدراسة: التحيزات على أساس العرق والجنسأظهرت الدراسة أن نماذج الذكاء الاصطناعي كانت أكثر حساسية لعرق وجنس المستخدم عند الإجابة على الأسئلة، على سبيل المثال، كانت هناك تغييرات كبيرة في الإجابات بالنسبة للأشخاص السود مقارنة بالبيض، وللإناث مقارنة بالذكور.
التأثيرات على الرواتب والنصائح الطبيةفيما يتعلق بالرواتب، وجد الباحثون أن النماذج تميل إلى تقديم رواتب أقل للأشخاص غير البيض مقارنة بالبيض، أما في مجال النصائح الطبية، فقد تم إخبار الأشخاص من العرق الأسود بزيارة الطبيب أكثر من الأشخاص البيض، حتى وإن كانت الأعراض هي نفسها.
أوصت الدراسة بتوسيع هذه الاختبارات لتشمل المزيد من نماذج الذكاء الاصطناعي، بما في ذلك تلك المدعومة عبر واجهات التطبيقات فقط مثل ChatGPT.
ويشير الباحثون إلى أن التخصيص الذي تقوم به نماذج الذكاء الاصطناعي قد يتضمن افتراضات غير مرحب بها حول هوية المستخدمين، مما قد يؤثر سلبا على نوعية الاستجابة المقدمة لهم.
توضح الدراسة من أكسفورد أن النماذج الحالية من الذكاء الاصطناعي لا تقدم دائما إجابات محايدة وتكشف عن التحديات التي تواجه الباحثين في توجيه هذه الأنظمة بشكل أخلاقي ومتوازن.