باستخدام الذكاء الاصطناعي.. محتالون يستنسخون صوت وزير الدفاع الإيطالي لطلب فدية
تاريخ النشر: 10th, February 2025 GMT
كشفت وزارة الدفاع الإيطالية عن حادثة احتيال خطيرة استُخدم فيها الذكاء الاصطناعي لاستنساخ صوت وزير الدفاع، غويدو كروسيتو، بهدف طلب فدية من رجال أعمال ومهنيين بارزين.
وقال كروسيتو عبر حسابه في منصة "إكس"، إنه سيقدم شكوى ضد مجهولين بتهمة "تبديل الهوية والاحتيال"، بعدما اكتشف أن العديد من الأشخاص تعرضوا للاحتيال باستخدام صوت مزيف له.
وفي الأسابيع الأخيرة، تلقى عدد من كبار رجال الأعمال الإيطاليين مكالمات هاتفية من أشخاص انتحلوا شخصية كروسيتو وموظفيه.
على سبيل المثال، طُلب من جورجيو أرماني وباتريزيو بيرتيلي، الرئيس التنفيذي لشركة برادا، تحويل مبلغ يقارب مليون يورو إلى حساب مصرفي في هونغ كونغ، على أساس أنه سيتم استخدام الأموال لدفع فدية للإفراج عن صحفيين إيطاليين مختطفين في الشرق الأوسط.
Relatedبلجيكا تستعين بالذكاء الاصطناعي لتعزيز الأمن والاتصالاتبريطانيا: تطبيق يعمل بالذكاء الاصطناعي يشخّص سرطان الجلد بدقة نسبتُها 99.8%عشية انطلاق قمة الذكاء الاصطناعي في باريس.. فيديو لماكرون كما لم تروه من قبل فما هي الرسالة؟وسط ضغوط فدرالية وامتثالًا لقواعد ترامب.. غوغل تُعدّل سياساتها في التنوع على برامج الذكاء الاصطناعيويوم الأحد، أكد كروسيتو أنه سيقدم شكوى رسمية ضد هؤلاء المحتالين، موضحًا أن هذه الحادثة بدأت يوم الثلاثاء الماضي عندما تواصل معه رجل أعمال كبير، سائلًا عن سبب طلب سكرتيرته رقم هاتفه المحمول. وعندما تحقق الوزير من الأمر، اكتشف أن أحد الأشخاص كان قد اتصل به وانتحل شخصيته.
وفي اتصال هاتفي لاحق مع أحد رجال الأعمال، أخبره أن كروسيتو قد اتصل به مع جنرال مزيف وطلب منه تحويل مليون يورو إلى حساب في هونغ كونغ. بعدها، أبلغ كروسيتو السلطات وجرى التحقيق في الحادث.
تم إنشاء قائمة بأسماء الشخصيات التي استُهدفت، مثل ماركو ترونشيتي بروفيرا ودييغو ديلا فالي، إلى جانب رجال الأعمال البارزين في صناعة الموضة مثل أرماني وبرادا. كما شمل التحقيق أيضًا عائلات من أصحاب الشركات الكبيرة مثل ميناريني وكالتاجيروني.
من جانبه، أعلن ماسيمو موراتي، رئيس نادي إنتر ميلانو السابق، عن تعرضه للاتصال نفسه، مشيرًا إلى أنه قدم شكوى بالفعل.
كما كشف الصحفيون في صحيفة "كورييري ديلا سيرا" أن موراتي هو الضحية الوحيدة التي قامت بتحويل المبلغ المالي الضخم إلى الحساب في هونغ كونغ، بينما أكد موراتي أنه لا يرغب في التعليق بشكل أكبر حتى يتضح سير التحقيقات.
فرضيات المحققينحتى الآن، لا يزال من غير الواضح ما إذا كان المحتالون قد استخدموا رسالة صوتية مسجلة أو تقنيات الذكاء الاصطناعي لتوليد الصوت الذي بدا مشابهًا لصوت وزير الدفاع.
كما يبحث المحققون في فرضية أن عملية الاحتيال استُهدفت على خلفية قضية الصحفية الإيطالية سيسيليا سالا، التي أُفرج عنها مؤخرًا بعد احتجازها في إيران.
Go to accessibility shortcutsشارك هذا المقالمحادثة مواضيع إضافية "لقد أحببته".. منتحل شخصية براد بيت يسرق بسحره الافتراضي والذكاء الاصطناعي 800 ألف يورو من فرنسية من الجدة ديزي إلى الكراسي المتحركة وروبوتات الدردشة: كيف يُغير الذكاء الاصطناعي حياتنا اليومية؟ كيف جعل الذكاء الاصطناعي من آيتانا نجمة تجني 10,000 يورو شهرياً؟ الذكاء الاصطناعيالغش الجبائيإيراندفاعإيطالياصحفيالمصدر: euronews
كلمات دلالية: دونالد ترامب إسرائيل الصراع الإسرائيلي الفلسطيني غزة روسيا بنيامين نتنياهو دونالد ترامب إسرائيل الصراع الإسرائيلي الفلسطيني غزة روسيا بنيامين نتنياهو الذكاء الاصطناعي إيران دفاع إيطاليا صحفي دونالد ترامب إسرائيل الصراع الإسرائيلي الفلسطيني غزة روسيا بنيامين نتنياهو سوريا أوكرانيا الاتحاد الأوروبي قسد قوات سوريا الديمقراطية الأكراد مصر الذکاء الاصطناعی یعرض الآنNext
إقرأ أيضاً:
هل يخفي الذكاء الاصطناعي عنصرية خلف خوارزمياته الذكية؟
مؤيد الزعبي
بما أننا مقبلون على مرحلة جديدة من استخدامات الذكاء الاصطناعي وجعله قادرًا على اتخاذ القرارات بدلًا عنَّا يبرز سؤال مهم؛ هل سيصبح الذكاء الاصطناعي بوابتنا نحو مجتمع أكثر عدلًا وإنصافًا؟ أم أنه سيعيد إنتاج تحيزاتنا البشرية في قالب رقمي أنيق؟ بل الأخطر من ذلك: هل سيغدو الذكاء الاصطناعي أداة عصرية تمارس من خلالها العنصرية بشكل غير مُعلن؟
قد تحب- عزيزي القارئ- تصديق أن هذه الأنظمة "ذكية" بما يكفي لتكون حيادية، لكن الحقيقة التي تكشفها الدراسات أكثر تعقيدًا؛ فالذكاء الاصطناعي في جوهره يتغذى على بياناتنا وتاريخنا، وعلى ما فينا من تحامل وتمييز وعنصرية، وبالتالي فإن السؤال الحقيقي لا يتعلق فقط بقدرة هذه الأنظمة على اتخاذ قرارات عادلة، بل بمدى قدرتنا نحن على برمجتها لتتجاوز عيوبنا وتاريخنا العنصري، ولهذا في هذا المقال نقترب من هذه المنطقة الرمادية، حيث تتقاطع الخوارزميات مع العدالة، وحيث قد تكون التقنية المنقذ أو المجرم المتخفي.
لنقرّب الفكرة بمثال واقعي: تخيّل شركة تستخدم الذكاء الاصطناعي لفرز السير الذاتية واختيار المتقدمين للوظائف. إذا كانت خوارزميات هذا النظام مبنية على بيانات تحمل انحيازًا ضد جنس أو لون أو جنسية معينة، فقد يستبعد المرشحين تلقائيًا بناءً على تلك التحيزات. وهذا ليس ضربًا من الخيال؛ فقد وجدت دراسة حديثة أجرتها جامعة واشنطن (أكتوبر 2024) أن نماذج لغوية كبيرة أظهرت تفضيلًا واضحًا لأسماء تدلّ على أصحاب البشرة البيضاء بنسبة 85%، مقابل 11% فقط لأسماء مرتبطة بالنساء، و0% لأسماء تعود لأشخاص من ذوي البشرة السوداء، تُظهر هذه الأرقام المقلقة كيف أن خوارزميات الذكاء الاصطناعي، والتي تستخدمها نحو 99% من شركات "فورتشن 500"، يمكن أن تؤثر سلبًا على فرص ملايين الأشخاص الباحثين عن عمل، لا لسبب سوى أنهم وُلدوا بهوية مختلفة، أي أن تحيّز هذه الأنظمة يمكن أن يمس ملايين الباحثين عن العمل.
الأمر يزداد خطورة عند الحديث عن أنظمة التعرف على الوجوه، والتي تُستخدم حاليًا في تعقب المجرمين ومراقبة الأفراد. دراسات عديدة أثبتت أن هذه الأنظمة تخطئ بنسبة تصل إلى 34% عند التعامل مع النساء ذوات البشرة الداكنة، كما تُسجَّل أخطاء في التعرف على الوجوه الآسيوية، ما قد يؤدي إلى اعتقالات خاطئة أو مراقبة غير مبررة لأشخاص أبرياء، فقط لأن الخوارزمية لم تتعلم بشكل عادل، وتخيل الآن كيف سيكون الأمر عندما يدخل الذكاء الاصطناعي- بكل تحيزاته- إلى قاعات المحاكم، أو إلى أنظمة القضاء الإلكترونية، ليصدر أحكامًا أو يوصي بعقوبات مشددة، وحينها بدلًا من أن نصل لقضاء عادل سنصل لعدالة مغلفة بواجهة من الحياد الزائف.
ولننتقل إلى السيناريو الأكثر رعبًا: الذكاء الاصطناعي في المجال العسكري. ما الذي قد يحدث إذا تم برمجة أنظمة قتالية لتحديد "العدو" بناءً على لون بشرة أو جنسية؟ من يتحمل المسؤولية حين ترتكب هذه الأنظمة مجازر على أساس تحيز مبرمج مسبقًا؟ تصبح هذه الأنظمة أداة للقتل بعنصرية عقل إلكتروني، ومن هنا ستتفاقم العنصرية، وستصبح هذه الأنظمة بلا شك أداة لقتل كل ما تراه عدوًا لها ليأتي اليوم الذي تجدنا فيه نحن البشر ألذ أعدائها.
في قطاع الرعاية الصحية أيضًا يمكن للذكاء الاصطناعي أن يكون عنصريًا خصوصًا لو تم برمجتها لتتحكم بمستحقي الدعم الصحي أو حتى استخدامها في أنظمة حجز مواعيد العمليات، فلو وجد أي عنصرية بهذه الأنظمة؛ فبالطبع ستعطي الأولوية لأصحاب بشرة معينة أو جنسية معينة مما سيحرم الكثيرين من الوصول للعلاج في الوقت المناسب.
حتى نكون منصفين هنا نحتاج إلى تمييز دقيق بين نوعين من عنصرية الذكاء الاصطناعي: العنصرية المقصودة: الناتجة عن برمجة متعمدة تخدم مصالح أو توجهات محددة، والعنصرية غير المقصودة: الناتجة عن تغذية الأنظمة ببيانات غير عادلة أو تمثل واقعًا عنصريًا، فتُصبح الخوارزميات انعكاسًا له.
وأيضًا هناك مشكلة مهمة يجب معالجتها فلو عدنا لموضوع الرعاية الصحية؛ فلو قمنا بإدخال بيانات المرضى على هذه الأنظمة وكان حجم البيانات لفئة معينة أكثر من فئة أخرى فربما يعالج الذكاء الاصطناعي هذا الأمر على أن فئة معينة لا تحتاج للعلاج أو تحتاج لرعاية صحية أقل من غيرها وبالتالي يستثنيها من علاجات معينة أو مطاعيم معينة مستقبلًا، ولهذا يجب أن نعمل على تنقيح بيناتنا من العنصرية قدر الإمكان لتجنب تفاقم الأزمة مستقبلا.
يجب ألا نعتقد أبدًا بأن الذكاء الاصطناعي سيكون منصفًا لمجرد أنه آلة لا تفاضل شيء على شيء، فهذا سيمكن الصورة النمطية الموجودة حاليًا في مجتمعاتنا، فالذكاء الاصطناعي تقنية مازالت عمياء وليست واعية بما يكفي لتميز أية التمييز وتحذفه من برمجياتها، إنما تأخذ الأنماط الموجودة وتبني عليها، وسنحتاج وقت أطول لمعالجة هذه الفجوة كلما مضى الوقت.
إذا سألتني عزيزي القارئ ما هي الحلول الممكنة نحو ذكاء اصطناعي عادل وشامل، فالحلول كثيرة أهمها أن نوجد أدوات ذكاء اصطناعي قادرة على إيجاد العنصرية وتبدأ بمعالجتها واستثنائها في خوارزمياتها، وهذه مسؤولية الشركات الكبرى التي تبني نماذج الذكاء الاصطناعي، وثانيًا يجب أن نطور أنظمة ذكاء اصطناعي مبنية على العنصرية فهذه الأنظمة ستطور من نفسها وستكون عدوة للبشرية في قادم الأيام، أيضًا يجب أن يكون هناك تنويع في البيانات فكلما انعكس التنوع في البيانات والتصميم، كلما انخفضت احتمالية انتشار النتائج العنصرية وحققنا الإنصاف المطلوب.
في النهاية يجب القول إن الذكاء الاصطناعي ليس عدوًا بالضرورة، لكنه قد يكون كذلك إذا تركناه يتغذّى على أسوأ ما فينا وأقصد هنا العنصرية.
رابط مختصر