ملحق كروم الجديد يكتشف أصوات الذكاء الاصطناعي
تاريخ النشر: 19th, October 2024 GMT
في الوقت المناسب لانتخابات الولايات المتحدة لعام 2024، أطلقت شركة Hiya لفحص المكالمات وكشف الاحتيال ملحق Chrome مجانيًا لاكتشاف الأصوات المزيفة. يستمع Hiya Deepfake Voice Detector المسمى بشكل مناسب إلى الأصوات التي يتم تشغيلها في تدفقات الفيديو أو الصوت ويحدد درجة مصداقية، ويخبرك ما إذا كانت حقيقية أم مزيفة.
أخبرت Hiya موقع Engadget أن المختبرين من جهات خارجية قد صدقوا على الامتداد بنسبة دقة تزيد عن 99 بالمائة. تقول الشركة إنه يغطي حتى الأصوات التي تم إنشاؤها بواسطة الذكاء الاصطناعي والتي لم يتدرب عليها نموذج الكشف، وتزعم الشركة أنها يمكنها اكتشاف الأصوات التي تم إنشاؤها بواسطة نماذج التوليف الجديدة بمجرد إطلاقها.
لقد لعبنا بالامتداد قبل الإطلاق، ويبدو أنه يعمل بشكل جيد. لقد قمت بسحب مقطع فيديو على موقع يوتيوب عن رائد البلوز Howlin’ Wolf والذي اشتبهت في أنه استخدم سرد الذكاء الاصطناعي، وقد أعطاه درجة أصالة 1/100، معلنًا أنه من المحتمل أن يكون مزيفًا عميقًا. تم تأكيد الشكوك.
لقد وجهت Hiya انتقادًا مستحقًا لشركات وسائل التواصل الاجتماعي لجعل مثل هذه الأداة ضرورية. كتب رئيس Hiya Kush Parikh في بيان صحفي: "من الواضح أن مواقع التواصل الاجتماعي تتحمل مسؤولية كبيرة لتنبيه المستخدمين عندما يكون المحتوى الذي يستهلكونه لديه فرصة كبيرة ليكون مزيفًا عميقًا بالذكاء الاصطناعي". "يقع العبء حاليًا على الفرد ليكون يقظًا للمخاطر واستخدام أدوات مثل Deepfake Voice Detector للتحقق مما إذا كان يشعر بالقلق من تغيير المحتوى. هذا طلب كبير، لذلك يسعدنا أن نتمكن من دعمهم بحل يساعد في إعادة بعض القوة إلى أيديهم".
يحتاج الامتداد فقط إلى الاستماع إلى بضع ثوانٍ من الصوت لإخراج النتيجة. يعمل هذا النظام على أساس نظام ائتماني لمنع خوادم Hiya من التعرض لضغط شديد بسبب الطلبات المفرطة. ستحصل على 20 رصيدًا يوميًا، وقد يغطي هذا أو لا يغطي كمية هائلة من محتوى الذكاء الاصطناعي التلاعبي الذي ستصادفه على وسائل التواصل الاجتماعي في الأسابيع المقبلة.
المصدر: بوابة الوفد
كلمات دلالية: الذکاء الاصطناعی
إقرأ أيضاً:
خبراء يكشفون خطر الذكاء الاصطناعي على الدماغ
#سواليف
كشفت دراسة حديثة عن #مخاطر محتملة لبرامج الدردشة المدعومة بالذكاء الاصطناعي مثل ChatGPT، حيث قد تشكل تهديدا غير متوقع للصحة العقلية لبعض المستخدمين.
ورصدت الدراسة التي أجراها باحثون من جامعة كينغز كوليدج لندن، ظاهرة جديدة أطلقوا عليها اسم ” #ذهان_الشات_بوت”، حيث قد تساهم هذه التقنية في “طمس حدود الواقع” لدى المستخدمين المعرضين للخطر وتؤدي إلى “ظهور أو تفاقم أعراض ذهانية.
وببساطة، قد يبدأ البعض، خاصة المعرضين نفسيا، في فقدان القدرة على التمييز بين الواقع والمحادثات مع #الذكاء_الاصطناعي بعد استخدام مكثف لهذه البرامج.
مقالات ذات صلةويوضح الدكتور هاميلتون مورين، أحد المشاركين في الدراسة: “نحن لا نتحدث عن خيال علمي هنا. هذه حالات حقيقية يبدأ فيها المستخدمون بتطوير معتقدات وأفكار غير منطقية متأثرة بتفاعلاتهم مع #الذكاء_الاصطناعي”.
وتكمن المشكلة في أن هذه البرامج مصممة لتكون ودودة، متعاطفة، وتجيب على كل الأسئلة بثقة عالية. وهذه الميزات التي تبدو إيجابية، قد تكون خادعة للأشخاص الذين يعانون أساسا من هشاشة نفسية أو استعداد للاضطرابات الذهانية.
ويشير البروفيسور توم بولاك، أحد معدي الدراسة، إلى أن “الذهان لا يظهر فجأة، لكن الذكاء الاصطناعي قد يكون العامل الذي يدفع الشخص الهش نفسيا نحو الحافة”.
في تعليق سابق خلال بودكاست في مايو الماضي، اعترف سام ألتمان، الرئيس التنفيذي لشركة OpenAI، بأن الشركة تواجه صعوبات في وضع ضوابط أمان فعالة لحماية المستخدمين المعرضين للخطر، قائلا: “لم نكتشف بعد كيفية إيصال التحذيرات للمستخدمين الذين يكونون في حالة عقلية هشة وعلى وشك الانهيار الذهاني”.
وفي الوقت الحالي، ينصح الخبراء باستخدام هذه الأدوات بحذر، خاصة من لديهم تاريخ مع الاضطرابات النفسية، مع التأكيد على أن الغالبية العظمى من المستخدمين لا يواجهون مثل هذه المخاطر. لكن الرسالة واضحة: الذكاء الاصطناعي، مثل أي تقنية قوية، يحتاج إلى فهم دقيق لآثاره الجانبية قبل أن يصبح أكثر تعمقا في حياتنا.