حظر مكالمات «الذكاء الاصطناعي» بسبب الاحتيال
تاريخ النشر: 10th, February 2024 GMT
أصدرت السلطات الأمريكية قرارا حظرت بموجبه المكالمات الآلية التي تُستخدم فيها أصوات مولدة بواسطة برامج الذكاء الاصطناعي، وذلك في إطار المساعي لمكافحة عمليات الاحتيال والتضليل التي تتيحها هذه التكنولوجيا.
وتضمّن بيان لرئيسة اللجنة الفيدرالية للاتصالات جيسيكا روزنوورسيل، أن جهات سيئة النية تستخدم أصواتاً أُنشِئت بواسطة الذكاء الاصطناعي في مكالمات هاتفية غير مرغوب فيها لغايات مختلفة، من بينها ابتزاز أفراد وانتحال شخصيات مشاهير، وتضليل الناخبين.
وأوضحت اللجنة أن قرارها الذي يدخل حيّز التنفيذ على الفور، يجعل تقنيات استنساخ الصوت المستخدمة في هذه المكالمات الآلية المعروفة بالإنكليزية بـrobocalls غير قانونية، وتُعتبر احتيالا على المستهلكين.
وتسبب التطور الكبير للذكاء الاصطناعي التوليدي خلال العام الفائت في إثارة مخاوف عدة دفعت إلى محاولات عدة لتنظيم استخدام هذه التقنية التي تتيح إنشاء محتويات (من نصوص وصور وأصوات) بناءً على طلب بسيط باللغة اليومية.
ولفتت الهيئة إلى أن “الزيادة في هذه الأنواع من المكالمات تسارعت في السنوات الأخيرة نظرا إلى أن هذه التكنولوجيا باتت تتيح خداع المستهلكين بمعلومات مضللة من خلال تقليد أصوات المشاهير والمرشحين السياسيين وأفراد الأسرة المقربين”.
وفي هذا السياق، برزت في هذا الإطار أخيرا اتصالات هاتفية مزورة استُخدِم فيها صوت الرئيس جو بايدن تُثني سكان ولاية نيوهامبشير عن التصويت في الانتخابات التمهيدية للحزب الديمقراطي. ويجري التحقيق في “محاولة غير قانونية محتملة لتعطيل” التصويت.
تجدر الإشارة إلى أن بايدن وقّع في تشرين الأول/أكتوبر الفائت مرسوما لتحسين تنظيم الذكاء الاصطناعي، من حيث تأثيره على الأمن والعدالة وعلى سوق العمل. ومن أبرز ما أوصى به النص تطوير أدوات لتسهيل رصد المحتوى المنتج بواسطة الذكاء الاصطناعي.
وقالت جيسيكا روزنوورسيل الخميس إن “أدوات جديدة للقضاء على عمليات الاحتيال هذه وضمان حماية العامة من الاحتيال والمعلومات المضللة ستتوافر لدى المدعين العامين في الولايات من الآن فصاعدا”.
المصدر: عين ليبيا
كلمات دلالية: الاحتيال الإلكتروني التكنولوجيا الحيوية الذكاء الاصطناعي بايدن الذکاء الاصطناعی
إقرأ أيضاً:
خلال محاكمة.. الذكاء الاصطناعي يحيل إلى مرجع غير موجود
في محاكمة بين "أنثروبيك" للذكاء الاصطناعي وأصحاب حقوق ملكية فكرية، تضمنت مذكرة قضائية للدفاع عن الشركة الناشئة إشارة إلى مرجع وهمي لا وجود له.
بدأ الذكاء الاصطناعي يغير تدريجيا طريقة العمل في المجال القضائي. فبينما تسهّل هذه الأداة البحث في السوابق القضائية، يجب أن تخضع مخرجاتها للمراقبة بسبب قدرتها على الهلوسة.
وقد برز هذا مؤخرًا في محاكمة بين شركة "أنثروبيك" للذكاء الاصطناعي وشركات موسيقية. في أكتوبر 2023، طلبت شركات موسيقى من القضاة الاتحاديين في ولاية كاليفورنيا حظر استخدام دليلها الموسيقي لتدريب نماذج الذكاء الاصطناعي الخاصة بشركة "أنثروبيك".
رفض القضاة هذا الطلب في مارس 2025، معتبرين أنه لا يوجد دليل على ضرر لا يمكن إصلاحه. بعد ذلك، رفع المدعون دعوى قضائية أخرى تتعلق بانتهاك حقوق الطبع والنشر. تكمن إحدى نقاط الخلاف الرئيسية في هذه القضية في فحص حجم العينة المتفاعلة مع أداة "كلود" للذكاء الاصطناعي التابعة لشركة "أنثروبيك"، لتحديد وتيرة إعادة إنتاج الذكاء الاصطناعي لكلمات الأغاني المحمية أو توليدها.
مرجع وهمي
قدمت أوليفيا تشين، عالمة البيانات في شركة "أنثروبيك"، مذكرة إلى المحكمة تُجادل فيها بأن عينة من مليون تفاعل مستخدم كافية لتقديم "معدل انتشار معقول" لظاهرة نادرة: مستخدمو الإنترنت يبحثون عن كلمات الأغاني. وقدّرت أن هذه الحالة لا تُمثل سوى 0.01% من التفاعلات. وفي شهادتها، استشهدت بمقال أكاديمي نُشر في مجلة "الإحصائي الأميركي" تبيّن لاحقا أنه غير موجود.
طلب المدعون من المحكمة استدعاء أوليفيا تشين ورفض أقوالها بسبب الإحالة إلى هذا المراجع الزائف. ومع ذلك، منحت المحكمة شركة "أنثروبيك" وقتًا للتحقيق. وقد وصف محامي الشركة الناشئة الحادثة بأنها "خطأ بسيط في الاستشهاد"، وأقرّ بأن أداة "كلود" للذكاء الاصطناعي استُخدمت "لتنسيق ثلاثة مراجع ببليوغرافية على الأقل بشكل صحيح". وفي هذا السياق، اخترع الذكاء الاصطناعي مقالاً وهمياً، مع مؤلفين خاطئين لم يعملوا معًا قط.
تجنب أخطاء الذكاء الاصطناعي
تُسلّط هذه الحادثة الضوء على الانتشار المُقلق للأخطاء الناتجة عن الذكاء الاصطناعي في الإجراءات القانونية، وهي ظاهرة متنامية تُعرّض الشركات لمخاطر جسيمة، لا سيما عندما يعتمد محاموها على هذه الأدوات لجمع المعلومات وصياغة الوثائق القانونية.
يقول برايان جاكسون، مدير الأبحاث في مجموعة Info-Tech Research Group "خلق استخدام الذكاء الاصطناعي نوعًا من الكسل الذي أصبح مصدر قلق في المجال القانوني". ويضيف: "لا ينبغي استخدام أدوات الذكاء الاصطناعي كحل شامل لإنتاج الوثائق اللازمة للملفات القضائية".