فاجأت فرقة The Beatles الموسيقية الشهيرة ملايين المعجبين عندما أصدرت أغنية جديدة لها  حتى بعد وفاة عدد من أعضائها، وذلك بفضل قدرات الذكاء الاصطناعي، الذي استخدمته الفرقة لتحسين جودة مقاطع صوتية قديمة للأعضاء الراحلين ودمجها في الأغنية الجديدة. وبينما تسببت قدرات الذكاء الاصطناعي في التزييف العميق بعض الفرح في هذه الحالة، لا يزال هناك جانب مظلم وخطر التزييف الصوتي العميق والصور.

 
لحسن الحظ، لا يتمتع مثل هذا المحتوى المزيف (والأدوات المستخدمة في صنعه) بمستوى تطور أو انتشار كبير حالياً. ومع ذلك، تبقى إمكانية استخدامه في مخططات الاحتيال عالية للغاية. فتقنية التزييف العميق دائمة التطور، ولا تكف عن التقدم.
ما هي قدرات التزييف العميق للصوت؟
عرضت شركة OpenAI مؤخراً نموذج واجهة برمجة تطبيقات للصوت يمكنه توليد أصوات حديث وقراءة بشرية للنصوص المُدخلة. وحتى الآن، يعد هذا النموذج الذي طورته OpenAI هو الأقرب للكلام البشري الحقيقي.
وفي المستقبل، قد تصبح مثل هذه النماذج أداة جديدة في أيدي المخترقين. إذ تقدم واجهة برمجة التطبيقات الجديدة من OpenAI للمستخدمين خيارات عدّة للأصوات المقترح استخدامها عند قراءة النصوص المدخلة. ومع أن الإصدار الحالي للواجهة غير قادر على التزييف الصوتي العميق ، إلا أنه دليل على وتيرة التطور السريعة لتقنيات توليد الأصوات.  
من ناحية عملية، لا يستطيع أي جهاز حالي توليد صوت مزيف عالي الجودة وغير قابل للتمييز عن كلام البشر الحقيقي. لكن وبالعودة إلى الأشهر القليلة الماضية، يبدو من الواضح أن العديد من أدوات توليد الأصوات البشرية الجديدة تظهر بشكل مستمر. كما بات استخدام هذه الأدوات أسهل عما كان في السابق، إذ كان المستخدمون يحتاجون إلى مهارات برمجية أساسية لاستخدام مثل هذه الأدوات. وفي المستقبل القريب، يمكننا أن نتوقع رؤية نماذج تزييف عميق سهلة الاستخدام وتقدم نتائج عالية الجودة أيضاً.
لا يعد الاحتيال باستخدام الذكاء الاصطناعي شائعاً كثيراً، لكن هناك أمثلة على حالات احتيال «ناجحة» منذ الآن. ففي منتصف شهر أكتوبر 2023، حذّر مستثمر رأس المال المخاطر الأمريكي «تيم دريبر» متابعيه على منصة تويتر  من مخططات الاحتيال التي تستغل صوته المولّد بالتزييف العميق. وهو ما يدل على ارتفاع مستوى تطوّر التقنية.
كيف تحمي نفسك من الاحتيال بالتزييف العميق للصوت؟
حتى الآن، قد لا يتعامل معظم الناس مع التزييف الصوتي العميق على أنه تهديد سيبراني محتمل. إذ لا تزال حالات استخدامه لغايات خبيثة قليلة جداً، وهو ما يجعل التقنيات التي تحمي منه بطيئة الظهور. 
مبدئياً، أفضل طريقة لحماية نفسك من الاحتيال الذي يستخدم التزييف الصوتي العميق هي الاستماع بعناية لما يقوله المتصل بك عبر الهاتف.  فإذا لاحظت أن جودة صوت المكالمة رديئة، وسمعت فيها ضوضاء غريبة، وظننت أن الصوت يبدو آلياً، فذلك سبب وجيه لئلا تثق بالمعلومات التي تسمعها. 
هناك طريقة أخرى جيدة لمعرفة ما إذا كان المتصل بك بشرياً، وهي طرح أسئلة غير متوقعة. فإذا كان المتصل روبوت ذكاء اصطناعي، يمكن أن يتركه السؤال عن لونه المفضل في حيرة من أمره، لأن هذا السؤال نادر الطرح من ضحايا الاحتيال المحتملين عادة. وحتى إذا كان المتصل بشرياً يقوم بتشغيل إجابات الروبوت الصوتية في هذه الحالة، سيكون هامش الانتظار الطويل للإجابة على سؤالك دليلاً واضحاً على أنك تتعرض للاحتيال.
يمكنك أيضاً تثبيت حل أمني موثوق وشامل لتعزيز حمايتك من هذا النوع من الاحتيال. فمع أن الحلول الأمنية لا تمتلك قدرات كاملة على رصد الأصوات المزيفة، إلا أنها تحمي متصفحات الويب وتتحقق من جميع الملفات الموجودة على الحاسوب، مما قد يساعد المستخدمين على تجنب ما هو مشبوه من مواقع الويب، وعمليات الدفع وعمليات تحميل  البرمجيات الخبيثة. 
وعلّق «ديمتري أنيكين»، كبير علماء البيانات في شركة كاسبرسكي، على هذا الموضوع قائلاً: «النصيحة الأهم الآن هي عدم المغالاة في التهديد أو محاولة اكتشاف التزييف العميق في غير أماكن وجوده.  ففي الوقت الحالي، من غير المرجح أن تكون التقنية المتاحة قوية بما يكفي لإنشاء صوت مزيف لن يتمكن الأشخاص من تمييزه.  وعلى جميع الأحوال، عليك أن تكون على دراية بالتهديدات المحتملة وأن تكون متحضراً لكون الاحتيال المتقدم باستخدام التزييف العميق سيصبح واقعاً في المستقبل القريب.» 

المصدر: بوابة الوفد

كلمات دلالية: التزییف العمیق

إقرأ أيضاً:

أنثروبيك تطلق كلود 4 أقوى نماذجها للذكاء الاصطناعي

أطلقت "أنثروبيك" Anthropic عائلتها الجديدة من نماذج الذكاء الاصطناعي التوليدية "كلود 4" (Claude 4)، تقول شركة الذكاء الاصطناعي الناشئة إنها مصممة لإظهار قدرتها على المنافسة مع أدوات المساعدة الرائدة في الذكاء الاصطناعي بطريقة أكثر مسؤولية من منافسيها.

قال الرئيس التنفيذي والمؤسس المشارك لـ"أنثروبيك" داريو أمودي في افتتاح مؤتمر المطورين الأول للشركة "تُعتبر النسخة الرابعة من "كلود" Opus 4 أفضل نموذج برمجة في العالم".

ويُعدّ كل من "Opus 4"، النموذج الأقوى لدى الشركة الناشئة، و"Sonnet 4"، نموذجين هجينين، إذ يمكنهما تقديم إجابات فورية أو تنفيذ مهام أطول في الخلفية، مثل برمجة الكمبيوتر أو تحليل البيانات الفنية لإنتاج تقرير مفهوم.


وطُبع عام 2023 بالسباق لإطلاق واجهات منافسة لـ"تشات جي بي تي" ChatGPT.


وكذلك، أصبحت أدوات المساعدة العاملة بالذكاء الاصطناعي أكثر قدرة على "التفكير"، إذ باتت تستغرق وقتا أطول للاستجابة وعرض مراحل تفكيرها، كما ازدادت استقلالية.

وتركز شركات التكنولوجيا الأميركية حالياً على "وكلاء الذكاء الاصطناعي"، وهي أدوات تؤدي مهام مختلفة نيابة عن المستخدم.

وكانت "أنثروبيك" رائدة في هذا المجال مع إصدار نظام "Computer use" في خريف عام 2024، والذي يسمح لـ"كلود" باستخدام أجهزة الكمبيوتر مثل الإنسان: فهو يتصفح الإنترنت، ويختار الأزرار على موقع ما، ويُدخل النص ويستخدم برامج مختلفة.

وقال مايك كريغر، كبير مسؤولي المنتجات في "أنثروبيك" والمؤسس المشارك لإنستجرام "يمكن للوكلاء تحويل الخيال البشري إلى واقع ملموس على نطاق غير مسبوق، وهذا مهم بشكل خاص للمطورين مثلكم".

أخبار ذات صلة أبل تخطط لإطلاق نظارات ذكية وتكشف الموعد ثلاث ميداليات برونزية للإمارات في «الأولمبياد الخليجي للروبوت»


واستذكر الأيام الأولى لتطبيق إنستجرام قبل أن تستحوذ عليه فيسبوك، عندما كان فريقها الصغير مضطرا للاختيار بين تطوير ميزة جديدة أو تحسين التطبيق المحمول، على سبيل المثال.

وأضاف كريغر "بفضل وكلاء الذكاء الاصطناعي، يمكن للشركات الناشئة الآن إجراء تجارب متوازية، والتحسين من خلال تعليقات المستخدمين، وبناء المنتجات بشكل أسرع من أي وقت مضى".

المصدر: وكالات

مقالات مشابهة

  • الزوري العراقي.. طبق الفقراء يواجه الانقراض وسط تحذيرات من الاحتيال
  • المرور: توفير أدوات الطوارئ بالمركبة يساعد على التصرف بفاعلية
  • محام يكشف أبرز طرق الاحتيال المرتبطة بالسفر  
  • احذر قبل السفر: محامٍ يكشف أخطر حيل الاحتيال الإلكتروني .. فيديو
  • مزارع الاحتيال بالذكاء الاصطناعي.. أداة العصابات الرقمية لجني مليارات الدولارات
  • “درع الوطـن” و”دفاع شبـوة”.. أدوات صـراع تنهش حيـاة المواطنين في شبوة
  • تحذير عاجل من البريد المصري: احذروا الاحتيال الإلكتروني الجديد
  • أنثروبيك تطلق كلود 4 أقوى نماذجها للذكاء الاصطناعي
  • محاولة اغتيال إعلامي تكشف عن أدوات الحوثي الخفية في الضالع
  • الناطق الرسمي لحركة العدل والمساواة السودانية: رفض التزييف الإعلامي لتصريحاتي حول مشاركة البراؤون في السلطة