تحذيرات من الاتصالات الاحتيالية باستخدام الذكاء الاصطناعي
تاريخ النشر: 16th, April 2024 GMT
إذا تلقيت اتصالاً هاتفياً من صوت مألوف لك، يخبرك بأمر طارئ، عليك التشكك في صحة الاتصال أولاً، خاصة إذا طلب المتصل منك تحويل أموال له بسرعة.
هذه النصيحة تنطبق بشدة، عندما يبدو أن المتصل هو أحد الأقارب أو الأصدقاء، لأن المحتالين يستخدمون بشكل متزايد الذكاء الاصطناعي في تقليد الأصوات والتلاعب بها، لإجراء مثل هذه الاتصالات.
ويقول خبراء مكافحة الجريمة الإلكترونية إنه من المهم التحلي بالهدوء على الرغم من الموقف الصعب، وعدم اتخاذ أي قرارات مترددة، حتى إذا كان المستخدم يتعرض للضغط من جانب المتصل.
كما يوصي الخبراء بعدم الكشف عن أي معلومات شخصية للمتصل، وإنهاء المكالمة ثم إعادة الاتصال على الرقم المعروف للمتصل لأنه إما صديق أو قريب للتأكد من صحة الاتصال، وأن المتصل هو القريب أو الصديق بالفعل، وليس مجرد محاولة احتيال.
في الوقت نفسه، يمكن للشخص سؤال المتصل عن أماكن وأشياء وأحداث لا يعرفها إلا الشخص المتصل، إذا كان حقيقياً وليس محتالاً.
كما يجب ألا يتردد الشخص في طرح أسئلة "غبية" قد لا يكون لها علاقة بالمحادثة الدائرة، فهذه الأسئلة يمكن أن تساعد في الكشف عن الاحتيال بمساعدة الذكاء الاصطناعي.
وفي حال استمرار الشك في هوية المتصل، يجب أن يسجل الشخص تاريخ وتوقيت الاتصال ورقم الهاتف إذا كان ظاهراً، ثم إبلاغ الشرطة بها.
يمكن أن تشير الفجوات في المحادثة أو الصوت غير الطبيعي إلى أنه اتصال باستخدام الذكاء الاصطناعي. وفي كل الأحوال يجب التركيز في المحادثة بشدة لاكتشاف محاولة الاحتيال.
المصدر: أخبارنا
كلمات دلالية: الذکاء الاصطناعی
إقرأ أيضاً:
خبراء يكشفون خطر الذكاء الاصطناعي على الدماغ
#سواليف
كشفت دراسة حديثة عن #مخاطر محتملة لبرامج الدردشة المدعومة بالذكاء الاصطناعي مثل ChatGPT، حيث قد تشكل تهديدا غير متوقع للصحة العقلية لبعض المستخدمين.
ورصدت الدراسة التي أجراها باحثون من جامعة كينغز كوليدج لندن، ظاهرة جديدة أطلقوا عليها اسم ” #ذهان_الشات_بوت”، حيث قد تساهم هذه التقنية في “طمس حدود الواقع” لدى المستخدمين المعرضين للخطر وتؤدي إلى “ظهور أو تفاقم أعراض ذهانية.
وببساطة، قد يبدأ البعض، خاصة المعرضين نفسيا، في فقدان القدرة على التمييز بين الواقع والمحادثات مع #الذكاء_الاصطناعي بعد استخدام مكثف لهذه البرامج.
مقالات ذات صلةويوضح الدكتور هاميلتون مورين، أحد المشاركين في الدراسة: “نحن لا نتحدث عن خيال علمي هنا. هذه حالات حقيقية يبدأ فيها المستخدمون بتطوير معتقدات وأفكار غير منطقية متأثرة بتفاعلاتهم مع #الذكاء_الاصطناعي”.
وتكمن المشكلة في أن هذه البرامج مصممة لتكون ودودة، متعاطفة، وتجيب على كل الأسئلة بثقة عالية. وهذه الميزات التي تبدو إيجابية، قد تكون خادعة للأشخاص الذين يعانون أساسا من هشاشة نفسية أو استعداد للاضطرابات الذهانية.
ويشير البروفيسور توم بولاك، أحد معدي الدراسة، إلى أن “الذهان لا يظهر فجأة، لكن الذكاء الاصطناعي قد يكون العامل الذي يدفع الشخص الهش نفسيا نحو الحافة”.
في تعليق سابق خلال بودكاست في مايو الماضي، اعترف سام ألتمان، الرئيس التنفيذي لشركة OpenAI، بأن الشركة تواجه صعوبات في وضع ضوابط أمان فعالة لحماية المستخدمين المعرضين للخطر، قائلا: “لم نكتشف بعد كيفية إيصال التحذيرات للمستخدمين الذين يكونون في حالة عقلية هشة وعلى وشك الانهيار الذهاني”.
وفي الوقت الحالي، ينصح الخبراء باستخدام هذه الأدوات بحذر، خاصة من لديهم تاريخ مع الاضطرابات النفسية، مع التأكيد على أن الغالبية العظمى من المستخدمين لا يواجهون مثل هذه المخاطر. لكن الرسالة واضحة: الذكاء الاصطناعي، مثل أي تقنية قوية، يحتاج إلى فهم دقيق لآثاره الجانبية قبل أن يصبح أكثر تعمقا في حياتنا.