بطريقة مبتكرة.. "الجدة ديزي" تواجه المحتالين في بريطانيا
تاريخ النشر: 19th, November 2024 GMT
أعلنت شركة الاتصالات البريطانية Virgin Media O2 عن مكافحة مكالمات الاحتيال المتزايدة بواسطة الجدة "ديزي - Daisy"، وهي روبوت دردشة يشبه الإنسان، ويرد على المكالمات ليبقي المحتالين على الهاتف لأطول فترة ممكنة، في محاولة لإزعاجهم وإحباطهم، تماماً كما يفعلون مع المستهلكين في جميع أنحاء العالم.
الروبوت "ديزي" يعمل على أتمتة ممارسة "الاحتيال"، والتي تنطوي على انتحال الأشخاص لشخصيات الضحايا المحتملين، لإهدار وقت المحتالين ومواردهم، وكشف أساليبهم الماكرة علناً، وجمع المعلومات المفيدة لجهات إنفاذ القانون، بحسب "فوربس".
ويتقمص الروبوت "ديزي" شخصية سيدة كبيرة في السن، مما يجعلها جزءاً من فئة إنسانية مستهدفة بشكل كبير في عمليات الاحتيال. ولضمان المصداقية، استندت وكالة الإبداع في لندن VCCP Faith في صوت ديزي إلى صوت جدة أحد الموظفين بالفعل.
وقالت ديزي في مقطع الفيديو الترويجي الذي طرحته الشركة: "بينما هم مشغولون بالتحدث معي، لا يمكنهم الاحتيال عليك، ولنواجه الأمر. يا عزيزي، لدي كل الوقت في العالم".
وجسّدها الفيديو وكأنها امرأة واقعية، تم إنشاؤها بواسطة الذكاء الاصطناعي، لديها شعر رمادي وترتدي نظارة، وتتحدث على هاتف أرضي من داخل منزلها.
وتضمّن الفيديو صوتاً من محادثات حقيقية، حيث يشعر المحتالون بالإحباط بمرور الوقت بينما تتحدث "ديزي" في مواضيع متشعبة دون ذكر المعلومات التي يريدونها، مثل أرقام الحساب المصرفي وبطاقات الائتمان.
ولدى ديزي رقم خاص بها، وقد أضافه فريق مكافحة الاحتيال في O2 إلى قوائم جهات الاتصال التي يستخدمها المحتالون. وهي تجمع بين نماذج الذكاء الاصطناعي المختلفة للاستماع إلى المتصل ونسخ صوته إلى نص ثم تستخدم نموذجاً لغوياً كبيراً مخصصاً للرد.
وقالت شركة O2 في بيان: "من خلال خداع المجرمين وإقناعهم بأنهم يحتالون على شخص حقيقي، واللعب على استهدافهم لكبار السن، منعتهم ديزي من استهداف ضحايا حقيقيين، والأهم من ذلك، كشفت عن التكتيكات الشائعة المستخدمة حتى يتمكن العملاء من حماية أنفسهم بشكل أفضل".
وقامت الشركة بتدريب الذكاء الاصطناعي الذي يقود ديزي بمساعدة جيم براوننج، وهو أحد أشهر المحتالين السابقين على يوتيوب ولديه أكثر من 4.3 مليون مشترك على يوتيوب. وقالت الشركة إن ديزي "تهدر بالفعل مئات الساعات من وقت المحتالين".
وحثّت الشركة المستهلكين على توخي الحذر بشأن عمليات الاحتيال المحتملة وإعادة توجيه المكالمات والرسائل النصية المشبوهة إلى رقم توفره الشركة، قائلةً: "لا تستطيع الجدة التي تعمل بالذكاء الاصطناعي وحدها إحباط المحتالين، لكن ديزي قد تثبت أنها أداة قيّمة في إبطائهم".
المصدر: موقع 24
كلمات دلالية: عودة ترامب عام على حرب غزة إيران وإسرائيل إسرائيل وحزب الله الانتخابات الأمريكية غزة وإسرائيل الإمارات الحرب الأوكرانية الذكاء الاصطناعي الذكاء الاصطناعي بريطانيا
إقرأ أيضاً:
خبراء يكشفون خطر الذكاء الاصطناعي على الدماغ
#سواليف
كشفت دراسة حديثة عن #مخاطر محتملة لبرامج الدردشة المدعومة بالذكاء الاصطناعي مثل ChatGPT، حيث قد تشكل تهديدا غير متوقع للصحة العقلية لبعض المستخدمين.
ورصدت الدراسة التي أجراها باحثون من جامعة كينغز كوليدج لندن، ظاهرة جديدة أطلقوا عليها اسم ” #ذهان_الشات_بوت”، حيث قد تساهم هذه التقنية في “طمس حدود الواقع” لدى المستخدمين المعرضين للخطر وتؤدي إلى “ظهور أو تفاقم أعراض ذهانية.
وببساطة، قد يبدأ البعض، خاصة المعرضين نفسيا، في فقدان القدرة على التمييز بين الواقع والمحادثات مع #الذكاء_الاصطناعي بعد استخدام مكثف لهذه البرامج.
مقالات ذات صلةويوضح الدكتور هاميلتون مورين، أحد المشاركين في الدراسة: “نحن لا نتحدث عن خيال علمي هنا. هذه حالات حقيقية يبدأ فيها المستخدمون بتطوير معتقدات وأفكار غير منطقية متأثرة بتفاعلاتهم مع #الذكاء_الاصطناعي”.
وتكمن المشكلة في أن هذه البرامج مصممة لتكون ودودة، متعاطفة، وتجيب على كل الأسئلة بثقة عالية. وهذه الميزات التي تبدو إيجابية، قد تكون خادعة للأشخاص الذين يعانون أساسا من هشاشة نفسية أو استعداد للاضطرابات الذهانية.
ويشير البروفيسور توم بولاك، أحد معدي الدراسة، إلى أن “الذهان لا يظهر فجأة، لكن الذكاء الاصطناعي قد يكون العامل الذي يدفع الشخص الهش نفسيا نحو الحافة”.
في تعليق سابق خلال بودكاست في مايو الماضي، اعترف سام ألتمان، الرئيس التنفيذي لشركة OpenAI، بأن الشركة تواجه صعوبات في وضع ضوابط أمان فعالة لحماية المستخدمين المعرضين للخطر، قائلا: “لم نكتشف بعد كيفية إيصال التحذيرات للمستخدمين الذين يكونون في حالة عقلية هشة وعلى وشك الانهيار الذهاني”.
وفي الوقت الحالي، ينصح الخبراء باستخدام هذه الأدوات بحذر، خاصة من لديهم تاريخ مع الاضطرابات النفسية، مع التأكيد على أن الغالبية العظمى من المستخدمين لا يواجهون مثل هذه المخاطر. لكن الرسالة واضحة: الذكاء الاصطناعي، مثل أي تقنية قوية، يحتاج إلى فهم دقيق لآثاره الجانبية قبل أن يصبح أكثر تعمقا في حياتنا.