2024-06-11@23:27:50 GMT
إجمالي نتائج البحث: 57

«التزییف العمیق»:

    تابع أحدث الأخبار عبر تطبيق أكثر ما يمكن أن يشكل خطرًا قويًا ومدمرًا هو التضليل، تزييف وعي الناس، وأكثر ما هو مؤسف أن يكون مصدره أو حلقة من حلقاته شخص محسوب على الوسط الثقافي، شخص نحسبه مفكرًا، قارئًا، واعيًا، لأن هذه الصفات تميزه عن بقية الناس، تصنع له مساحة من الثقة والصدق في القلوب، لكنه في الحقيقة مضلل.قراءة الصفحات الرسمية لبعض الكتاب والمثقفين والشعراء، تشير إلى حالة من الاستسهال واللامبالاة، فيها تجري إعادة تدوير الأخبار الكاذبة والشائعات، تلاحظ أنه بسهولة يرص مجموعة من الأخبار المتداولة بعضها صحيح والآخر مزيف، يصنع ظاهرة ويعلق عليها بثقة بالغة، وتظهر انفعالاته من بين سطوره، وأسأل نفسي: هذا المثقف العظيم، لماذا لم يفتح صفحة جوجل ليقوم بعملية بحث بسيطة للتأكد من المصدر؟ هل تداوله بين...
    كشف مخرج بولندي أن ضباط مخابرات روس "تواصلوا معه عبر طرق ملتوية" للحصول على نسخة من فيلمه الذي تناول فيه سيرة الرئيس فلاديمير بوتين، باستخدام تقنيات الذكاء الاصطناعي، وفقا لما ذكرت صحيفة "تلغراف" البريطانية. وقال المخرج باتريك فيغا، في تصريحات للصحيفة اللندنية: "لقد مررت بتجربة مضحكة حقًا مع المخابرات الروسية". وكان فيغا قد أعلن عن فيلمه في مايو 2022، في أعقاب غزو قوات الكرملين لأوكرانيا، لكنه قال إن تطوير تقنيات الذكاء الاصطناعي اللازمة لإعادة خلق صورة بوتين على الشاشة، استغرق أكثر من عامين. ولفت المخرج المعروف إلى قيامه بتصوير مشاهد للرئيس الروسي بواسطة ممثل بولندي يشبهه، وذلك عبر استخدام التقنية "التزييف العميق" (Deep Fake) لتغطية وجه الممثل بملامح بوتين بشكل واقعي. ويعد هذا الفيلم، الذي سيعرض  في بريطانيا اعتبارا من...
    نشرت صحيفة لوموند الفرنسية تقريرًا سلطت فيه الضوء على الاستخدام المتزايد لتقنية التزييف العميق، أو "الديب فيك" في مجال الاحتيال المالي في الهند، حيث يتم إنشاء مقاطع فيديو مزيفة لشخصيات معروفة، من أجل الاحتيال على الضحايا وسلبهم أموالهم. وتقول الصحيفة، في تقريرها الذي ترجمته "عربي21"، إن طرق النصب والاحتيال في الهند شهدت طفرة في الكم والكيف بالاعتماد على الذكاء الاصطناعي. وكانت بورصة بومباي قد أعلنت في نهاية نيسان/ أبريل أنها سترفع دعوى قضائية، بعد أن انتشر على شبكات التواصل الاجتماعي مقطع فيديو مزيف يظهر فيه مدير هذه البورصة، سوندارارامان رامامورتي، بصدد إعطاء نصائح للمستثمرين. وذكرت الصحيفة أن هذه الأساليب المضللة كانت مستخدمة منذ سنوات في مجال السياسة، ولكن دخولها إلى قطاع المال والبورصة يعتبر جديدا، في هذا البلد...
    أدى الاعتماد واسع النطاق لتقنيات الذكاء الاصطناعي وتعلم الآلة في السنوات الأخيرة إلى تزويد مصادر التهديد بأدوات جديدة متطورة لتنفيذ هجماتهم. ويُعد التزييف العميق أحد هذه المنتجات، إذ يقلد البشر ويتضمن كلاماً أو صوراً أو فيديو مولداً يصعب تمييزه من الحقيقي. وبينما عادة ما تستهلك هذه الهجمات وقتاً وجهداً أكبر من «مكافآتها» المحتملة، تحذر كاسبرسكي من وجوب إدراك الشركات والمستهلكين لكون عمليات التزييف العميق ستصبح مصدر قلق أكبر في المستقبل على الأرجح.كشفت أبحاث كاسبرسكي وجود أدوات وخدمات صنع التزييف العميق في أسواق الشبكة المظلمة. وتوفر هذه الخدمات مقاطع فيديو مصنوعة بالذكاء الاصطناعي التوليدي ومخصصة لمجموعة متنوعة من الأغراض، بما في ذلك الاحتيال، والابتزاز، وسرقة البيانات السرية. كما تشير تقديرات خبراء كاسبرسكي إلى إمكانية شراء دقيقة واحدة من فيديوهات التزييف العميق...
    نشرت شبكة "بي بي سي" البريطانية تحقيقا استقصائيا يرصد أوقات عصيبة عاشتها فتاة عقب استهدافها بتقنية "التزييف العميق" أو ما يعرف بـ"الديب فيك" باللغة الإنجليزية، ونشر صور مزيفة تحمل وجهها على مواقع للأفلام الإباحية. ولفت التحقيق إلى وجود عشرات الآلاف من مقاطع الفيديو المزيفة باستخدام "التزييف العميق" على الإنترنت، توصلت الأبحاث الحديثة أن 98 في المئة منها مواد إباحية. وتشير أبحاث سابقة إلى أن عدد مقاطع الفيديو من هذا النوع يتضاعف على الإنترنت بسرعة، حيث أصبح إنتاج مثل هذه المقاطع عبر التقنية المثيرة للقلق  عملا مربحا. وعلى الرغم من تركيز حالة القلق على استخدام هذه التقنية من أجل أغراض سياسية، إلا أن الأدلة والأبحاث تثبت أن "التزييف العميق" يُستخدم في معظم الأحيان بهدف إنتاج المواد الإباحية. ...
    أذهلت قدرات الذكاء الاصطناعي العالم أجمع، مع تدخلها في شتي المجالات تقريبا، ولكن مع انتشارها الواسع أثارت التقنية المتطورة مخاوف الكثيرين حول المخاطر التي قد تتسبب بها هذه البرامج، وهو ما حدث بالفعل.ولسوء الحظ، إساء الكثيرين استخدام تقنيات الذكاء الاصطناعي لمصالحهم الخاصة، دون دراية أن ما فعلوه يمكن أن يكون له تأثيرات سلبية على الآخرين، ففي الآوانة الأخيرة استخدام الذكاء الاصطناعي في الغش، الاحتيال، التجسس، أو لإيجاد طرق للتلاعب بالمعلومات والبيانات وحتي الأصوات.  ألعاب المراهنات.. مافيا نصب محترفة تسرق عقول وجيوب المصريين |هذه أخطرها صور ترامب ومناصريه.. الذكاء الاصطناعي سلاح يهدد مصير الانتخابات الأمريكية  إعلانات مزيفة بالذكاء الاصطناعي صوت وصورةأدى إنشاء إعلانات مزيفة باستخدام الذكاء الاصطناعي، إلى تشوية صورة مشاهير معروفين أمام محبيهم وخلق مشاكل أخلاقية وقانونية خطيرة،...
    في مساء الثامن عشر من فبراير عام 2022، بث موقع إخباري أوكراني مقطع فيديو لرئيس أوكرانيا فلاديمير زيلينسكي وهو يلقي خطابًا يعلن فيه انتهاء الحرب مع روسيا، وهي المعلومة التي كانت غالبية الشعب الأوكراني تعلم أنها كاذبة. وبينما كان هذا يحدث عبر الإنترنت، كان الشريط الإخباري الموجود أسفل الشاشة في البث التلفزيوني المباشر للقنوات التلفزيونية التي نقلت الخبر يحمل الرسالة نفسها التي تقول إن أوكرانيا قد استسلمت. وهو ما لم يحدث وقتها ولا في أي وقت وحتى الآن.كان هذا الحدث غير المسبوق بداية لمسار جديد لإعادة كتابة تاريخ الدعاية، خاصة السياسية منها والحربية، ودخول آليات جديدة ليتم توظيفها في تشويه الحقائق، أهمها حاليا تقنية التزييف العميق المعروفة باسم «ديب فيك»، والتي تسمح للأشخاص بإنشاء صور ومقاطع فيديو لأحداث لم تحدث...
    الأمارات العربية – حذّر مجلس الأمن السيبراني في الإمارات من تقنيات “التزييف العميق” وتقنيات الذكاء الاصطناعي التي قد تستخدم أحيانا للاحتيال على الناس عبر الإنترنت. وذكر المجلس أنه في ظل التطور السريع في المشهد التكنولوجي، يتزايد انتشار الاحتيال بواسطة تقنية التزييف العميق، لاسيما مع تقدم تقنيات الذكاء الاصطناعي، مؤكدا أنه من الضروري فهم تقنيات هذه الممارسات الاحتيالية لحماية نفسك بفاعلية من الأضرار المحتملة. واستعرض المجلس سيناريو من الواقع كيف يمكن لتقنية التزييف العميق أن تجعلك ضحية للاحتيال، موضحا أن المخترقين يستخرجون نموذجا لصوتك من أحد حساباتك في مواقع التواصل الاجتماعي، وبعد تحليل المقاطع الصوتية يولدون رسائل صوتية مزيفة بتقنيات الذكاء الاصطناعي، تبدو كأنها بصوتك الحقيقي، وينشئون “رسالة مزيفة” تدعي حاجتك لأموال عاجلة ويرسلونها لأصدقائك المقربين، وبناء على ثقة صديقك بصوتك...
    حذّر مجلس الأمن السيبراني في الإمارات من تقنيات "التزييف العميق" وتقنيات الذكاء الاصطناعي التي قد تستخدم أحيانا للاحتيال على الناس عبر الإنترنت. وذكر المجلس أنه في ظل التطور السريع في المشهد التكنولوجي، يتزايد انتشار الاحتيال بواسطة تقنية التزييف العميق، لاسيما مع تقدم تقنيات الذكاء الاصطناعي، مؤكدا أنه من الضروري فهم تقنيات هذه الممارسات الاحتيالية لحماية نفسك بفاعلية من الأضرار المحتملة.واستعرض المجلس سيناريو من الواقع كيف يمكن لتقنية التزييف العميق أن تجعلك ضحية للاحتيال، موضحا أن المخترقين يستخرجون نموذجا لصوتك من أحد حساباتك في مواقع التواصل الاجتماعي، وبعد تحليل المقاطع الصوتية يولدون رسائل صوتية مزيفة بتقنيات الذكاء الاصطناعي، تبدو كأنها بصوتك الحقيقي، وينشئون "رسالة مزيفة" تدعي حاجتك لأموال عاجلة ويرسلونها لأصدقائك المقربين، وبناء على ثقة صديقك بصوتك قد يفي بالطلب ويرسل...
    كشفت دراسة جديدة حول عمليات الاحتيال عبر الإنترنت القائمة على انتحال الشخصية وتزييف الهوية، عن زيادة قدرها 10 أضعاف في عمليات الاحتيال المكتشفة والمعتمدة على التزييف العميق باستخدام الذكاء الاصطناعي، بين العامين 2022 و2023.  وعرضت الدراسة التي أعدتها منصة "Sumsub"، تحليلا شاملا لعمليات الاحتيال القائمة على تزييف الهوية، وصنفتها بحسب المناطق حول العالم ووفق مجالات العمل التي تستهدفها، كما لفتت في تقريرها إلى أبرز الأساليب والأنماط المعتمدة لانتحال الصفات وتزوير الهوية. و"Sumsub" هي إحدى منصات التحقق من الهويات التي تساعد الشركات على مراقبة الاحتيال في جميع أنحاء العالم، وتساهم في رفع وعي الناس لجرائم الاحتيال المتعلقة بسرقة الهوية وانتحال الشخصية. واستخدم التقرير مصطلح "الاحتيال في الهوية" ليشير إلى استخدام البيانات الشخصية أو الهوية المزيفة دون تصريح لأغراض ضارة، حيث حلل...
    في أحد أيام شهر أكتوبر  الماضي، عادت فرانسيسا ماني إلى منزلها من مدرستها في ضواحي نيوجيرسي حاملة أخبارا غير سعيدة لوالدتها، دوروتا، بعد أن تم إخطارها بأنها ومجموعة من زميلاتها بالمؤسسة التعليمية الثانوية، وقعن ضحية زميلة أخرى لهن، نشرت صورهن عاريات، باستخدام تقنية التزييف العميق التي تتيحها تطبيقات للذكاء الاصطناعي. كانت والدة فرانسيسا، على دراية تامة بقوة هذه التكنولوجيا الجديدة نسبيا، لكن السهولة التي تم بها إنشاء الصور أذهلتها، تقول: "لم أكن أعرف مدى السرعة التي يمكن أن يحدث بها ذلك، بصورة واحدة فقط.. يمكن أن يكون أي شخص ضحية لها، بنقرة زر واحدة". ووفقا لتفاصيل دعوى قضائية فيدرالية رفعتها مؤخرا عائلة فتاة أخرى تدرس بنفس المؤسسة، تم إنشاء الصور عبر استخدام تطبيق يسمى "ClothOff"، والذي يعمل تحت طبقة عميقة...
    تعد مقاطع الفيديو والصور التي ينتجها الذكاء الاصطناعي والمستخدمة في التضليل السياسي هي آفة عام الانتخابات العالمية المزدحم، وتسعى البرازيل جاهدة لتنظيم التكنولوجيا قبل الانتخابات البلدية. وفي بلد يبلغ عدد سكانه 203 ملايين نسمة، حظرت السلطات البرازيلية الأسبوع الماضي استخدام تقنية التزييف العميق ووضعت إرشادات لاستخدام الذكاء الاصطناعي للأغراض الانتخابية. وقالت الأستاذة الجامعية في مجال الكمبيوتر، آنا كارولينا دا هورا لوكالة فرانس برس “يمكن استخدام مونتاج الفيديو للتلاعب بالرأي العام أو تشويه سمعة الأفراد أو التدخل في العملية الديمقراطية”. وأدى التطور السريع للذكاء الاصطناعي، والذي عززه إطلاق ChatGPT عام 2022، إلى هز المشهد عبر الإنترنت وأثار الرهبة والخوف بشأن مستقبل التكنولوجيا. وفي بلد تضرر بشدة من التضليل السياسي، تشعر السلطات بالقلق بشكل خاص من حالات مثل حالة عمدة المدينة الذي تم استنساخ صوته لإنشاء...
    يمانيون../ حذّر الخبير التقني الروسي، دميتري كريوكوف من انتشار الفيديوهات المزيفة على الإنترنت، والتي يتم تطويرها عبر ما يسمى بتقنيات الـ”تزييف العميق”. وحول الموضوع قال الخبير:”أعتقد أن تقنيات التزييف العميق تتطور بسرعة كبيرة، وخلال عام قد يكون من المستحيل التمييز بين مقطع فيديو مزيف ومقطع حقيقي، وقد تستغل هذه التقنيات من قبل المحتالين عبر الإنترنت”. وأضاف:”من الأسهل والأسرع بالنسبة للمحتالين صنع فيديوهات مزيفة للتأثير على شخص ما والحصول على بياناته بدلا من اختراق أنظمة معينة، لذلك فإنهم سيعتمدون في المستقبل على أساليب احتيالية تمكنهم من استغلال الإنترنت ووسائل التواصل الاجتماعي”. وأشار الخبير إلى “أن وسائل الكشف عن التزييف العميق ما تزال في بداياتها حاليا، وغير فعالة بما فيه الكفاية، لذا يمكننا أن نتوقع زيادة في عدد الهجمات الإلكترونية التي تستخدم...
    حذّر الخبير التقني الروسي، دميتري كريوكوف من انتشار الفيديوهات المزيفة على الإنترنت، والتي يتم تطويرها عبر ما يسمى بتقنيات الـ"تزييف العميق". وحول الموضوع قال الخبير:"أعتقد أن تقنيات التزييف العميق تتطور بسرعة كبيرة، وخلال عام قد يكون من المستحيل التمييز بين مقطع فيديو مزيف ومقطع حقيقي، وقد تستغل هذه التقنيات من قبل المحتالين عبر الإنترنت".وأضاف:"من الأسهل والأسرع بالنسبة للمحتالين صنع فيديوهات مزيفة للتأثير على شخص ما والحصول على بياناته بدلا من اختراق أنظمة معينة، لذلك فإنهم سيعتمدون في المستقبل على أساليب احتيالية تمكنهم من استغلال الإنترنت ووسائل التواصل الاجتماعي". إقرأ المزيد مستشار مدير عام "روساتوم": روسيا تتقدم على الغرب في مجال تطوير برمجيات الكمبيوتر الكمومي وأشار الخبير إلى "أن وسائل الكشف عن التزييف العميق ما تزال في بداياتها حاليا، وغير...
    وقع الإعلامي البريطاني الشهير، بيرس مورجان ضحية لتقنية Deepfake أو ما يُعرف بـ "التزييف العميق"، حيث قام أحد المؤثرين على مواقع التواصل الاجتماعي باستغلاله ضمن أحد مقاطع الفيديو الترويجية.  وأدان محامو بيرس مورجان مقاطع الفيديو التي تم فبركتها لاستغلال الإعلامي البريطاني، كما أكد أحد الخبراء أن مقاطع الفيديو التي ظهر فيها مورجان تم التلاعب بها باستخدام تقنية التزييف العميق.  وقام موقع "YouTube" يوتيوب بإزالة مقاطع الفيديو من النظام الأساسي، نظرًا لانتهاكها سياسات الموقع التي تحظر المحتوى المُعالج باستخدام تقنية التزييف العميق، أو تقنيات الفبركة الأخرى.  صورة من الفيديو المفبرك لـ بيرس مورجانوتثير تقنية التزييف العميق قلقًا واسعًا ومخاوف كبيرة، حيث تعتبر نوعًا جديدًا من الفبركة الإلكترونية، لكن الفارق هو أن المستخدمين لا يستطيعون اكتشاف الفرق بينها وبين الحقيقة.  وفي الفترة الأخيرة، تعرض عددًا...
    وقع خبراء الذكاء الاصطناعي والمديرون التنفيذيون في الصناعة -بما في ذلك أحد رواد التكنولوجيا يوشوا بنجيو- على رسالة مفتوحة تدعو إلى مزيد من تنظيم إنشاء التزييف العميق، مشيرين إلى المخاطر المحتملة على المجتمع، بحسب وكالة رويترز. وقالت المجموعة في الرسالة التي جمعها أندرو كريتش الباحث بجامعة كاليفورنيا في بيركلي وأحد خبراء الذكاء الاصطناعي "اليوم، غالبا ما يتضمن التزييف العميق صورا جنسية أو احتيالا أو معلومات مضللة سياسية. وبما أن الذكاء الاصطناعي يتقدم بسرعة ويجعل إنشاء التزييف العميق أسهل بكثير، فإن هناك حاجة إلى ضمانات". والتزييف العميق عبارة عن صور وتسجيلات صوتية ومقاطع فيديو واقعية ولكنها ملفقة أُنشئت بواسطة خوارزميات الذكاء الاصطناعي، وقد جعلت التطورات الحديثة في التكنولوجيا تمييزها عن المحتوى الأصلي أمرا بالغ الصعوبة. وتقدم الرسالة -التي تحمل عنوان "تعطيل...
    أعلنت شركة ميتا، الإثنين، أنها ستطلق قريباً خدمة خاصة عبر واتس آب، لمحاربة التزييف العميق والمعلومات الخاطئة الناتجة عن الذكاء الاصطناعي.وبحسب ميتا، فإن هذه الخدمة ستساعد المستخدمين على الحصول على معلومات موثوقة تم التحقق منها بالفعل، بدعم من "تحالف مكافحة المعلومات المضللة"، وشبكة مرتبطة بها من مدققي الحقائق والمنظمات البحثية المستقلة. وتسمح المبادرة للمستخدمين بالإبلاغ عن التزييف العميق الذي يتم عبر الذكاء الاصطناعي، عن طريق برنامج الدردشة المخصص على واتس آب، والذي يدعم العديد من اللغات، ليتم إعادة توجيه الرسائل التي يرسلها المستخدمون، إلى مدققي الحقائق وشركاء الصناعة والمختبرات الرقمية الذين سيقومون بتقييم المحتوى والتحقق منه والكشف عما إذا كانت المعلومات صحيحة أو ملفقة.وبحسب صحيفة إنديان إكسبرس، فإن البرنامج لديه نهج مكون من أربع ركائز، هي الكشف والوقاية والإبلاغ وزيادة...
    أعلنت شركة ميتا، الإثنين، أنها ستطلق قريباً خدمة خاصة عبر واتس آب، لمحاربة التزييف العميق والمعلومات الخاطئة الناتجة عن الذكاء الاصطناعي. وبحسب ميتا، فإن هذه الخدمة ستساعد المستخدمين على الحصول على معلومات موثوقة تم التحقق منها بالفعل، بدعم من “تحالف مكافحة المعلومات المضللة”، وشبكة مرتبطة بها من مدققي الحقائق والمنظمات البحثية المستقلة. وتسمح المبادرة للمستخدمين بالإبلاغ عن التزييف العميق الذي يتم عبر الذكاء الاصطناعي، عن طريق برنامج الدردشة المخصص على واتس آب، والذي يدعم العديد من اللغات، ليتم إعادة توجيه الرسائل التي يرسلها المستخدمون، إلى مدققي الحقائق وشركاء الصناعة والمختبرات الرقمية الذين سيقومون بتقييم المحتوى والتحقق منه والكشف عما إذا كانت المعلومات صحيحة أو ملفقة. وبحسب صحيفة إنديان إكسبرس، فإن البرنامج لديه نهج مكون من أربع ركائز، هي الكشف والوقاية والإبلاغ وزيادة الوعي حول...
    وقع تحالف مكون من 20 شركة تكنولوجيا اتفاقا للمساعدة في منع التزييف العميق بالذكاء الاصطناعي في انتخابات 2024 الحاسمة التي تجري في أكثر من 40 دولة، بحسب وكالة رويترز. وتتضمن قائمة الشركات الموقعة على "اتفاق التكنولوجيا لمكافحة الاستخدام الخادع للذكاء الاصطناعي في انتخابات 2024″؛ تلك التي تُنشئ نماذج الذكاء الاصطناعي وتوزعها، بالإضافة إلى المنصات الاجتماعية التي من المرجح أن يظهر فيها التزييف العميق. ويشمل الموقعون غوغل وأدوبي وتيك توك وسناب شات ومايكروسوفت وميتا وإكس وأمازون وأدوبي ومكافي ولينكد إن وأنثروبيك ونوتا وتروبيك وتريند مايكرو وأي بي إم وآرم وإليفين لاب وإنفلكشن إيه آي وأوبن إيه آي وستابلتي إيه آي. وتصف المجموعة الاتفاقية بأنها مجموعة من الالتزامات لنشر التكنولوجيا لمواجهة المحتوى الضار الناتج عن الذكاء الاصطناعي الذي يهدف إلى خداع الناخبين....
    في ظل التطور التطور الرقمي الرهيب، ومع بدء المارثون الانتخابي، أعلنت مجموعة من 20 شركة تكنولوجية رائدة، عن التزام مشترك بمكافحة المعلومات الخاطئة والمزيفة المتعلقة بالذكاء الاصطناعي قبل انتخابات عام 2024.ووافقت الشركات المشاركة في الاتفاق على ثمانية التزامات رفيعة المستوى، بما فيها تقييم المخاطر النموذجية، والسعي لكشف ومعالجة توزيع المحتوى على منصاتها وتوفير الشفافية للجمهور.ويأتي الإتفاق كجزء من استعداد منصات التكنولوجيا لعام ضخم من الانتخابات في جميع أنحاء العالم، والتي تؤثر على ما يصل إلى أربعة مليارات شخص في أكثر من 40 دولة.يأتي ذلك بعدما أدى ظهور المحتوى الناتج عن الذكاء الاصطناعي إلى مخاوف خطيرة بشأن المعلومات المضللة المتعلقة بالانتخابات، وزيادة عدد التزييف العميق الذي تم إنشاؤه بنسبة 900% مقارنة بالعام الماضي.مايكروسوفت وميتا وغوغل وأمازون ينضمون إلى إتفاقية مكافحة التزييف...
    وقع تحالف من 20 شركة تكنولوجيا اتفاقا يوم الجمعة للمساعدة في منع التزييف العميق للذكاء الاصطناعي في انتخابات 2024 الحاسمة التي تجري في أكثر من 40 دولة. تعد OpenAI وGoogle وMeta وAmazon وAdobe وX من بين الشركات التي انضمت إلى الاتفاقية لمنع ومكافحة المحتوى الناتج عن الذكاء الاصطناعي والذي يمكن أن يؤثر على الناخبين. ومع ذلك، فإن اللغة الغامضة للاتفاقية والافتقار إلى التنفيذ الملزم يدعوان إلى التساؤل عما إذا كانت ستذهب إلى المدى الكافي.تتضمن قائمة الشركات الموقعة على "اتفاق التكنولوجيا لمكافحة الاستخدام الخادع للذكاء الاصطناعي في انتخابات 2024" تلك التي تنشئ نماذج الذكاء الاصطناعي وتوزعها، بالإضافة إلى المنصات الاجتماعية التي من المرجح أن تظهر فيها التزييفات العميقة. الموقعون هم Adobe، Amazon، Anthropic، Arm، ElevenLabs، Google، IBM، Inflection AI، LinkedIn، McAfee، Meta،...
    كشفت شركة "مايكروسوفت" مطلع فبراير، عن تفاصيل عملية قرصنة لبث تلفزيوني في دولة الإمارات، استخدم القراصنة فيها تقنيات التزييف العميق بواسطة الذكاء الاصطناعي لإظهار مذيع مفترض يقرأ تقريرا إخباريا مزيفاً يتناول الحرب بين إسرائيل وحماس في غزة، ويحاول التلاعب بمشاعر الرأي العام بالدولة الخليجية. وفي الوقت ذاته، كانت ولاية نيوهامشير الأميركية شاهدة على عملية تزييف مشابهة باستخدام تقنيات الذكاء الاصطناعي لمخادعة، عبر استنساخ صوت الرئيس الأميركي، جو بايدن، في اتصالات هاتفية مزيفة دعت الناخبين إلى عدم المشاركة في الانتخابات الرئاسية التمهيدية. وبين الواقعتين وقبلهما، شهد العالم عشرات الأحداث المشابهة التي تخللتها عمليات احتيال ومخادعة للجمهور بشكل عام أو للأفراد بصورة شخصية، كان المشترك الوحيد بينها، اعتمادها على الأدوات والإمكانات التي بات يتيحها الذكاء الاصطناعي لاسيما التوليدي منه، في عملية تزييف...
    إعداد: وسيم الدالي تابِع 1 دقائق يشهد الذكاء الاصطناعي تطورا ونموا متناهي السرعة ويتسع نطاق استخدامه بشكل لافت، فمنذ ظهور ما يسمى بالذكاء الاصطناعي التوليدي باتت المحتويات التي تنجزها هذه التقنية، تبدو وكأنها من صنع البشر بل أضحت تعوض الإنسان في الكثير من الأحيان، ما يثير المخاوف من مخاطر إساءة استخدام الذكاء الاصطناعي لأغراض خبيثة من قبيل التضليل والاحتيال والخداع والتأثير على الرأي العام. فهل نحن بمأمن من ذكاء اصطناعي مجرد من أي قيود أخلاقية؟ وهل أن الإنسان قادر على إدارة مخاطر الذكاء الاصطناعي والتحكم فيه بشكل كامل؟ هذه الأسئلة وغيرها يطرحها وسيم الدالي على ضيفه الخبير في التحول الرقمي والذكاء الاصطناعي عامر ناصر الدين. مشاركة : لقراءة المزيد حول نفس المواضيع: اقتصاد الذكاء الاصطناعي تقنية التعرف على الوجه...
    ذكرت وسائل إعلام محلية نقلا عن شرطة مدينة هونغ كونغ أن محتالين سرقوا نحو 25 مليون دولار بعد أن استخدموا تكنولوجيا التزييف العميق لخداع موظف في فرع شركة متعددة الجنسيات، بحسب ما أورده موقع بيزنس إنسايدر. وتلقى أحد الموظفين في يناير/كانون الثاني، في القسم المالي بالشركة رسالة من شخص قال فيه إنه المدير المالي للشركة ومقرها المملكة المتحدة، حسبما ذكرت صحيفة "سوث شاينا مورنينغ بوست" (South China Morning Post) نقلا عن الشرطة. وأجرى الموظف بعد ذلك مكالمة فيديو مع المدير المالي للشركة وموظفين آخرين في الشركة، وتبين أن جميعها كانت تستخدم تكنولوجيا التزييف العميق. وبناء على التعليمات التي حصلوا عليها خلال تلك المكالمة، قام الموظف بتحويل 200 مليون دولار هونغ كونغي، ما يعادل 25.6 مليون دولار أميركي، إلى حسابات بنكية...
    يستمر الممثلون السيئون في استخدام التزييف العميق في كل شيء بدءًا من انتحال شخصية المشاهير وحتى الاحتيال على الأشخاص للحصول على الأموال. وآخر مثال على ذلك هو ما حدث في هونج كونج، حيث تم خداع موظف مالي في شركة متعددة الجنسيات لم يتم الكشف عنها لتحويل 200 مليون دولار هونج كونج (25.6 مليون دولار).وفقًا لشرطة هونج كونج، اتصل المحتالون بالموظف متظاهرين بأنه المدير المالي للشركة ومقره المملكة المتحدة. لقد كان متشككًا في البداية، لأن البريد الإلكتروني يدعو إلى معاملات سرية، ولكن هذا هو المكان الذي ظهرت فيه التزييفات العميقة. حضر العامل مكالمة فيديو مع "المدير المالي" وأعضاء آخرين معروفين في الشركة. في الواقع، كل "شخص" تفاعل معه كان مزيفًا عميقًا - من المحتمل أنه تم إنشاؤه باستخدام مقاطع فيديو عامة للأفراد...
    ليس أمراً بسيطاً أو عرضياً أن يستيقظ شخص ما ليجد صوراً عارية له، لم يسبق له أن التقطها، تغزو مواقع التواصل الاجتماعي وتحقق ملايين المتابعات، أو أن يتلقى هذه الصور في بريده مع تهديدات بالنشر بهدف الابتزاز المالي أو الجنسي. وفي الوقت نفسه، ما عاد هذا السيناريو مستبعداً، ولا أحد بمنأى عنه.  شكلت قضية نشر الصور الإباحية المزيفة لنجمة البوب الأميركية تايلور سويفت الأسبوع الماضي، جرس إنذار عالميا نبه إلى المخاطر التي بات يمكن أن تنتج عن استخدام الذكاء الاصطناعي التوليدي في سياق إنتاج محتوى التزييف العميق، ولاسيما الإباحي منه، وعلى رأسها هاجس الابتزاز الجنسي، الذي عادة ما يطال الفئات الأضعف في المجتمع، كالنساء والأطفال. كما طرح تساؤلات جوهرية حول مستقبل خصوصية مستخدمي الإنترنت في ظل هذه القدرات التوليدية الآخذة...
        ◄ التقنيات الحديثة قادرة على إنتاج محتوى مشابه للواقع الحقيقي ◄ انتشار أدوات الذكاء الاصطناعي ساهم في صناعة التزييف ◄ إسرائيل تتعمد تزييف الحقائق للتأثير على المجتمع الدولي ◄ جهود دولية لإقرار ضوابط وأخلاقيات لاستخدام الذكاء الاصطناعي   الرؤية- سارة العبرية بات الاعتماد على التقنيات الحديثة وأدوات الذكاء الاصطناعي أمرا واقعيا في مختلف المجالات ولدى جميع الشركات والمؤسسات، ومع التطور الذي شهده العالم في السنوات الأخيرة استُخدمت هذه الأدوات والتقنيات في جوانب سلبية سواء على مستوى الأفراد أو الدول، ليظهر مصطلح "التزييف العميق deepfake" الذي قد يستهدف أشخاصًا أو دولا لتحقيق أهداف شخصية أو الترويج لروايات غير حقيقية. أساليب التزييف التزييف العميق هو التلاعب بالصور والأصوات والفيديوهات لإنشاء هويات وعناصر جديدة غير حقيقية، ونشأ هذا الأسلوب قبل...
    يعمل مجلس النواب الأمريكي تشريع قانون جديد يعتبر بموجبه مشاركة الصور الإباحية المفبركة باستخدام تقنية الذكاء الاصطناعي جريمة فيدرالية. وأعاد النائب الديمقراطي جوزيف موريل طرح مقترح القانون الجديد المعروف باسم "قانون منع التزييف العميق للصور الحميمة" (Deep Fake) في مجلس النواب، بعد أن أضاف له نائب آخر وهو الجمهوري توم كين، كراع مشارك للقانون. إقرأ المزيد دليل جديد يساعد على كشف الفيديوهات المفبركة وتأتي هذه الخطوة من قبل الحزبين ردا على حادث وقع في مدرسة ثانوية بولاية نيوجيرسي جرى من خلالها مشاركة صور عارية تم إنشاؤها بواسطة الذكاء الاصطناعي لطالبات من دون موافقتهن. ويمكن لبرامج تعمل بالذكاء الاصطناعي أن تصمم صورا عارية بناء على تحليلات للصور العادية المنشورة على مواقع التواصل الاجتماعي مما يجعلها تبدو وكأنها حقيقية بدرجة كبيرة ومتناسقة.ويؤكد خبراء...
    يعتزم مجلس النواب الأميركي تشريع قانون جديد يعتبر بموجبه مشاركة الصور الإباحية المفبركة باستخدام تقنية الذكاء الاصطناعي جريمة فيدرالية. وأعاد النائب الديمقراطي جوزيف موريل، الثلاثاء، طرح مقترح القانون الجديد المعروف باسم "قانون منع التزييف العميق للصور الحميمة"، في مجلس النواب، بعد أن أضاف له نائب آخر وهو الجمهوري توم كين، كراعٍ مشارك للقانون. وتأتي هذه الخطوة من قبل الحزبين ردا على حادث وقع في مدرسة ثانوية بولاية نيوجيرزي جرى من خلالها مشاركة صور عارية تم إنشاؤها بواسطة الذكاء الاصطناعي لطالبات من دون موافقتهن.  ويمكن لبرامج تعمل بالذكاء الاصطناعي، أن تصمم صورا عارية بناء على تحليلات للصور العادية المنشورة على مواقع التواصل الاجتماعي، مما يجعلها تبدو وكأنها حقيقية بدرجة كبيرة ومتناسقة. ويؤكد خبراء الذكاء الاصطناعي أن هناك الآن العشرات من البرامج...
    وفقاً لاستطلاع أجرته شركة كاسبرسكي عن رقمنة الأعمال، قال 57% من الموظفين في مصر أنهم يستطيعون التمييز بين صورة مولدة بتقنية التزييف العميق وصورة حقيقية. وعلى الرغم من هذا الادعاء، استطاع 28% من الموظفين في مصر تمييز الصور الحقيقية عن الصور المولدة بالذكاء الاصطناعي ضمن اختبار خضعوا له خلال الاستطلاع. هذا يعني أن الشركات معرضة للخداع باستخدام مثل هذه الحيل التي تتضمن استخدام المجرمين السيبرانيين للصور المولدة بالذكاء الاصطناعي بعدة طرق لتنفيذ إجراءات غير قانونية. فيمكن للمجرمين استخدام التزييف العميق لإنشاء مقاطع فيديو أو صور مزيفة للاحتيال على الأفراد أو المؤسسات. على سبيل المثال، يمكن للمجرمين السيبرانيين إنشاء مقطع فيديو مزيف لرئيس تنفيذي يطلب تحويلاً مصرفياً أو يمنح الإذن لتحويل مبلغ ما، مما يمكنهم من سرقة أموال الشركة. كما يمكنهم توليد...
    لا تقدم تايلور سويفت منتجات Le Creuset مجانًا في إعلانات وسائل التواصل الاجتماعي - على الرغم من أن التزييف العميق لصوتها يريدك أن تصدق خلاف ذلك. ظهرت سلسلة من المنشورات مؤخرًا على TikTok وفي مكتبة إعلانات Meta تدعي أنها تعرض Swift وهي تقدم مجموعات أدوات طهي Le Creuset مجانًا، حسبما ذكرت صحيفة نيويورك تايمز. تضمنت الإعلانات مقاطع حيث كانت Swift بالقرب من منتجات Le Creuset واستخدمت نسخة اصطناعية من صوتها. استخدم المحتالون الذكاء الاصطناعي لجعل الصوت المستنسخ يخاطب معجبيها، "Swifties"، ويدلي بملاحظات صغيرة أخرى.قادت هذه المنشورات الأطراف المهتمة إلى نسخ مزيفة من مواقع مثل The Food Network بمقالات وشهادات ملفقة حول Le Creuset. ثم طُلب من المتسوقين فقط تقديم مبلغ 9.96 دولارًا للشحن للحصول على منتجاتهم المجانية. ومن غير المستغرب...
    على الرغم من أن عام 2023 كان عام تغيير قواعد اللعبة بالنسبة للذكاء الاصطناعي، إلا أنه كان مجرد البداية، حيث من المقرر أن يبدأ عام 2024 بمجموعة من التطورات المخيفة في مجال الذكاء الاصطناعي والتي من أبرزها التزييف العميق الأكثر واقعية والحرب.يقول العلماء إن الذكاء الاصطناعي هذا العام قد يؤدي وظائف معينة بشكل أفضل من معظم البشر. ويمكن أيضًا تسليحه واستخدامه، على سبيل المثال، لإنشاء مسببات الأمراض، أو شن هجمات إلكترونية ضخمة.وفقًا لتقرير على موقع Live Science، إن عام 2024 ربما سيكون عام الاختراق بالنسبة للذكاء الاصطناعي حيث أنه من المتوقع أن يفعل ثلاث أمور مخيفة خلال الأشهر المقبلة.التزييف الواقعي العميق وتزوير الانتخاباتأحد التهديدات السيبرانية الأكثر إلحاحًا في مجال الذكاء الاصطناعي هي تهديد التزييف العميق للواقع إلى الحد الذي يجعلك تشعر...
    تلقت الأسواق المالية إنذارًا بعد كشف “كاسبرسكي” عن عمليات احتيال متطورة تستهدف المستثمرين في قطاع الغاز الطبيعي.وأوضحت الشركة الرائدة في الأمن الإلكتروني كيف تم استخدام تقنيات التزييف العميق ومقاطع فيديو مزورة لاستدراج ضحايا من المستثمرين عبر تطبيقات محمولة ومنصات ترويجية.ونصحت الشركة المستثمرين بتوخي الحيطة والحذر، مؤكدةً أهمية الاعتماد على مصادر موثوقة واستخدام حلول أمنية متقدمة للحماية من مثل هذه المخاطر السيبرانية.يقول ديمتري كالينين، خبير الأمن السيبراني في الشركة: “لا تشكل عمليات الاحتيال في حد ذاتها تحدياً جديداً، إلا أن استخدام مقاطع الفيديو المولدة بالتزييف العميق لقادة عالميين، ونشر التقارير الإخبارية المزيفة بلغات مختلفة، وانتشار استخدام الحملات الإعلانية على نطاق واسع يمثل تحولاً ملحوظاً في الاستراتيجيات الاحتيالية”. وأضاف: “على الرغم من أننا واجهنا مثل تلك العمليات من الاحتيال في الماضي، إلا أن...
    دبي: «الخليج» نظم المركز الدولي للعلوم الجنائية في الإدارة العامة للأدلة الجنائية وعلم الجريمة في شرطة دبي دورة مُتقدمة في مجال التعرف على طرق وآليات «التزييف العميق»، المعروفة عالمياً باسم «Deep Fake»، وذلك في إطار الجهود المُستمرة على مواكبة كافة العلوم والتقنيات والابتكارات الحديثة. وأكد اللواء أحمد بن غليطة مدير الإدارة العامة للأدلة الجنائية وعلم الجريمة أن الدورة تأتي في إطار حرص القيادة العامة لشرطة دبي على العمل على مواكبة كافة التطورات العلمية في مختلف المجالات واستخدامها في العلوم الشرطية. ..وتوعي بمبادرة «التزامكم سعادة» نظمت القيادة العامة لشرطة دبي، مُمثلة في مبادرة «التزامكم سعادة»، برنامجاً توعوياً في مدرسة حمدان بن راشد بدبي، بهدف التوعية بالتزامات الجمهور الرياضي في الملاعب التي ينص عليها القانون الاتحادي رقم 8 لسنة 2014 بشأن أمن...
    نظم المركز الدولي للعلوم الجنائية في الإدارة العامة للأدلة الجنائية وعلم الجريمة في شرطة دبي، دورة مُتقدمة في مجال التعرف على طرق وآليات “التزييف العميق”، المعروفة عالمياً باسم “Deep Fake”، وذلك في إطار الجهود المُستمرة على مواكبة كافة العلوم والتقنيات والابتكارات الحديثة، وتحقيق الأسبقية في هذه العلوم للمساهمة في حل القضايا وتقديم دليل علمي ومادي إلى النيابة العامة والجهات القضائية المُختصة لتحقيق العدالة في الجرائم ذات الصلة.وأكد سعادة اللواء أحمد بن غليطة مدير الإدارة العامة للأدلة الجنائية وعلم الجريمة، أن الدورة تأتي في إطار حرص القيادة العامة لشرطة دبي على مواكبة كافة التطورات العلمية في مختلف المجالات واستخدامها في كافة العلوم الشرطية من خلال الكوادر المواطنة المؤهلة والمدربة وفق أعلى المستويات، وذلك تحقيقاً لتطلعات شرطة دبي وخطتها في أن تكون...
    تزداد المخاوف بشأن قدرة تقنية التزييف العميق على نشر الأخبار المضللة من خلال استغلال الذكاء الاصطناعي لصنع محتوى زائف، يهدف لإثارة مشاعر الغضب لدى الجمهور بالتزامن مع الحرب بين إسرائيل وحماس في غزة. وتنتشر على مواقع التواصل الاجتماعي مقاطع فيديو وصور يدّعي ناشروها أنها تظهر على سبيل المثال مشاهد القتل والدمار في غزة، وأخرى تتحدث بالعكس من ذلك أن صور الجثث لممثلين يدعون الموت من أجل جذب التعاطف وتعميق مشاعر الكراهية. وأظهرت صور الحرب بين إسرائيل وحماس بشكل واضح إمكانات الذكاء الاصطناعي كأداة دعائية مضللة تستخدم لخلق صور يحاول ناشروها الادعاء بأنها واقعية.  ومنذ أن بدأت الحرب الشهر الماضي، تم استخدام الصور المعدلة رقميا والمنتشرة على وسائل التواصل الاجتماعي لتقديم ادعاءات كاذبة بشأن المسؤولية عن الضحايا أو لخداع الناس بشأن...
    شارك المتحدث باسم الكرملين دميتري بيسكوف في اختبار تقنية "التزييف العميق" (ديب فايك) على هامش مؤتمر "رحلة الذكاء الاصطناعي" المنعقد في موسكو. وأثناء الاختبار أعطى الذكاء الإصطناعي لدميتري بيسكوف وجه الملياردير الأمريكي إيلون ماسك باستخدام الشبكة العصبية المزودة بتقنية "التزييف العميق". المصدر: رابتلي
    فاجأت فرقة The Beatles الموسيقية الشهيرة ملايين المعجبين عندما أصدرت أغنية جديدة لها  حتى بعد وفاة عدد من أعضائها، وذلك بفضل قدرات الذكاء الاصطناعي، الذي استخدمته الفرقة لتحسين جودة مقاطع صوتية قديمة للأعضاء الراحلين ودمجها في الأغنية الجديدة. وبينما تسببت قدرات الذكاء الاصطناعي في التزييف العميق بعض الفرح في هذه الحالة، لا يزال هناك جانب مظلم وخطر التزييف الصوتي العميق والصور. لحسن الحظ، لا يتمتع مثل هذا المحتوى المزيف (والأدوات المستخدمة في صنعه) بمستوى تطور أو انتشار كبير حالياً. ومع ذلك، تبقى إمكانية استخدامه في مخططات الاحتيال عالية للغاية. فتقنية التزييف العميق دائمة التطور، ولا تكف عن التقدم.ما هي قدرات التزييف العميق للصوت؟عرضت شركة OpenAI مؤخراً نموذج واجهة برمجة تطبيقات للصوت يمكنه توليد أصوات حديث وقراءة بشرية للنصوص المُدخلة. وحتى الآن،...
    ينظم مركز تقييم واعتماد هندسة البرمجيات التابع لهيئة تنمية صناعة تكنولوجيا المعلومات (إيتيدا) ندوة توعوية حول الذكاء الاصطناعي التوليدي من منظور آخر لاكتشاف تقنية التزييف العميق، يوم 6 نوفمبر بمركز إبداع مصر الرقمية بالجيزة، ضمن سلسلة الندوات التوعوية SECC Tech Nights.وتناقش الندوة كيف يستخدم المزورون الذكاء الاصطناعي التوليدي لإنشاء مقاطع فيديو مُزيفة، وتناقش كيفية الاستفادة من تقنية الذكاء الاصطناعي لاكتشاف مقاطع الفيديو المُزيفة هذه، وذلك لأن الذكاء الاصطناعي التطبيقي يمكن تطبيقه في مجالات مختلفة بخلاف إنشاء نصوص.كما تسلط الندوة الضوء على آلية عمل الذكاء الاصطناعي التوليدي وتطبيقاته، وكذلك تغطي تقنيات مختلفة لاكتشاف المحتوى الذي يتم إنشاؤه بواسطة أداوت الذكاء الاصطناعي التوليدي. يمكن للذكاء الاصطناعي التوليدي إنشاء مجموعة مختلفة من البيانات، بما في ذلك الصور ومقاطع الفيديو والصوت والنصوص والنماذج ثلاثية الأبعاد...
    تنتشر على مواقع التواصل الاجتماعي صور ومقاطع فيديو للحروب خاصة منذ بدء شن قوات الاحتلال الاسرائيلي هجمات عنيفة ضد المدنيين في قطاع غزة للأسبوع الرابع على التوالي .   شاهد | إنزال بحري إسرائيلي في قطاع غزة وتصدي حماس القومي لحقوق الإنسان : خرق صارخ للقانون الدولي في غزة والضفة الغربية وقوَّضت تقنية «التزييف العميق deepfake» ثقة الأشخاص في مصداقية الصور والفيديوهات التي يتم التقاطها في مناطق الحروب، وفقاً لما أكدته دراسة جديدة هي الأولى من نوعها في هذا الشأن.وتقنية «التزييف العميق» هي عبارة عن برنامج إلكتروني يتيح للنّاس تبديل الوجوه، والأصوات، وغيرها من السمات لابتكار محتوى رقمي مزوّر.ووفقاً لصحيفة «إيفينينغ ستاندرد» البريطانية، فقد حللت الدراسة الجديدة، التي تحمل عنوان «نوع جديد من الأسلحة في الحرب الدعائية»، ما يقرب...
    تحقيق: محمد إبراهيم كيف ستكون ردة فعلك إذا فوجئت بظهورك في تقرير مصور بإحدى القنوات التلفزيونية دون أن تعرف عنه شيء، أو حتى تم استغلال صوتك ووجهك في محتوى مجهول؟ وماذا لو شاهدت نفسك وأنت تسير في شوارع بلد لم تذهب إليه من قبل؟ العقل والمنطق يرفضان تلك التساؤلات لاستحالة حدوثها، لكن في عصر التقنيات المتقدمة لا يوجد مستحيل؛ إذ إن نبرة صوتك وملامح وجهك وتعبيراتك، أصبحت أهدافاً سهلة لتقنيات وخوارزميات التزييف العميق «deepfake»، بقدراته التي طمس الخطوط الفاصلة بين الواقع والتلفيق. «الخليج» تكشف في هذا التحقيق أشهر مواقع التزييف، وتستعين بالخبراء للتعرف إلى هذا العالم المعقد وتداعياته وآثاره الاجتماعية، وكذلك استراتيجيات الوقاية منه. منذ سنوات قليلة انتشرت تقنية التزييف العميق، لكنها انتشرت بسرعة فائقة، تتناسب مع سرعة التطور التكنولوجي...
      هل لكم أن تتخيلوا أنّ صورة هذه الفتاة مركبة كليا بواسطة الذكاء الاصطناعي.ربما لم يعد هذا الامر غريبا على أذهان الناس، ولكن هل تعلمون انّه وعبر الذكاء الاصطناعي  وليس من خلال التقنيات المعروفة القديمة، أصبح بالامكان استخدام برمجيات توليدية للتزييف العميق، او ما بات يُعرف بـ (Deepfake)كاحدى الظواهر المثيرة للجدل والتي أصبحت تشكل قلقا للعالم. وهنا نتحدث تحديدا عن برمجيات التوليدية للتزييف والتي تعمل على توليف الصور الاباحية لاي شخص، بمجرد أن يتم اختيار صورة من مواقع التواصل الاجتماعي او اي مصدر واعطائها للبرنامج المعالج عبر احدى تقنيات الذكاء الاصطناعي، وهو كفيل باعطاء الشخص ما يريد بشكل مرعب وحقيقي، وأكثر ما يخيف هو امكانية تعرية مجموعة اشخاص في صورة واحدة. برمجيات خطيرة باتت هذه البرمجيات منتشرة بشكل واسع،...
    قال إتحاد التأمين المصري إن  الذكاء الاصطناعى «Artificial Intelligence»  يشكل فرصة لآلاف الأشخاص حول العالم، لتسهيل العديد من مهامهم اليومية ، لكنه بالرغم من الفوائد والمميزات التى يقدمها الذكاء الاصطناعى للأفراد، فإن الجانب المظلم لتلك التكنولوجيا المتقدمة ظهر أسرع من المتوقع، وبدأ يشكل خطرًا على الأفراد والمجتمعات والمؤسسات وعلى رأسهم قطاع التأمين ، عبر تقنيات «التزييف العميق».التزييف العميقوأوضح فى تقرير حديث أن  تقنية التزييف العميق  تقومُ على صنعِ فيديوهات مزيّفة عبر برامج الحاسوب من خِلال برامج الذكاء الاصطناعي. حيث تقومُ هذهِ التقنيّة على محاولة دمجِ عددٍ من الصور ومقاطع الفيديو لشخصيّةٍ ما من أجلِ إنتاج مقطع فيديو جديد – باستخدام تقنية التعلم الآلي – قد يبدو للوهلة الأولى أنه حقيقي لكنّه في واقع الأمر مُزيّف.كما أشارت التقرير  إلى تقنيات التزييف...
    ألقت شرطة هونغ كونغ القبض على 6 أشخاص بتهمة استخدام الذكاء الاصطناعي في التزييف العميق لإنشاء صور لعملية احتيال على البنوك لنيل قروض بأسماء أشخاص حقيقيين. وذكرت شبكة "فوكس نيوز" الأمريكية، أنه وجهت للمحتالين الستة تهم بتزوير الصور والمستندات لخداع البنوك والمقرضين. إقرأ المزيد ما حجم الدور الذي يمكن أن يلعبه الذكاء الاصطناعي في تحليل التزييف الرقمي أثناء الحروب؟ وقال ديكين كو تيك، المشرف على مكتب الأمن السيبراني والجرائم التكنولوجية، إن العصابة استخدمت برنامج الذكاء الاصطناعي لتغيير الوجه المعروف باسم تقنية التزييف العميق، لتقديم طلب للحصول على قروض عبر الإنترنت من المؤسسات المالية.وأضاف ديكين كو تيك "سنواصل العمل بنشاط لتقديم مجرمي الإنترنت المختبئين في العالم الرقمي إلى العدالة".وتتهم المجموعة باستخدام بطاقات الهوية المسروقة والمستندات المصطنعة لتقديم طلبات الحصول على قروض...
    حذر خبراء متخصصون في الأمن السيبراني من خطورة المكالمات الهاتفية التي تتم عبر الذكاء الاصطناعي والتي يتم فيها انتحال شخصيات قريبة من الضحايا المستهدفين، يمكن من خلالها سرقة الحسابات البنكية ومعلومات حساسة للغاية.  وبحسب تقرير من صحيفة “ذا صن” البريطانية فإن تقنية Deepfake والمعروفة باسم تقنية التزييف العميق والتي تم إنشاؤها من خلال الذكاء الاصطناعي أتاحت انتحال الأشخاص عبر المكالمات الهاتفية.   وفقا للصحيفة فإن التقنية يتم استخدامها في الوقت الحالي من قبل محتالين لانتحال شخصيات قريبة من الشخص المستهدف سرقته أو الحصول على معلوماته عن طريق محاكاة صوتهم.  وأوضحت الصحيفة أنه قد يتم انتحال شخصية رئيسك في العمل، أو حد أفراد عائلتك عن طريق محاكاة الصوت، ومن خلال القيام بذلك، يمكنهم جعل الأمر مقنعًا للغاية عندما يطلبون منك تحويل أموال أو تقديم معلومات أخرى...
    استعرض الاتحاد المصري للتأمين عبر نشرته الأسبوعية موضوع "التحديات التى يواجهها التأمين فى ظل عمليات التزييف العميق"، باعتباره أحد الجوانب المظلمة لتقنيات الذكاء الاصطناعي، والذي بدأ يشكل خطرًا على الأفراد والمجتمعات والمؤسسات. وعرف اتحاد التأمين التزييف العميق بأنه تقنية تقومُ بصنعِ فيديوهات مزيّفة عبر برامج الذكاء الاصطناعي في الحاسوب، حيث تتولي دمجِ عددٍ من الصور ومقاطع الفيديو لشخصيّةٍ ما من أجلِ إنتاج مقطع فيديو جديد - باستخدام تقنية التعلم الآلي - وهو ما يبدو للوهلة الأولى أنه حقيقي لكنّه في واقع الأمر مُزيّف. وأشارت النشرة إلى تقنيات التزييف الصوتي وكيفية الاحتيال باستخدام هذه التقنية، بالإضافة إلى المخاطر التي يتسبب فيها التزييف العميق، مثل، نشر التضليل والدعاية الكاذبة، الإضرار بالسمعة، اختراق الأمان والخصوصية. وتولت النشرة مناقشة التحديات التي تواجهها شركات التأمين...
    يستعرض الاتحاد المصري للتأمين، من خلال نشرته هذا الأسبوع، التحديات التي يواجهها التأمين في ظل عمليات التزييف العميق، حيثُ يشكل الذكاء الاصطناعى «Artificial Intelligence» فرصة لآلاف الأشخاص حول العالم، لتسهيل العديد من مهامهم اليومية ، لكنه بالرغم من الفوائد والمميزات التى يقدمها الذكاء الاصطناعي للأفراد، فإن الجانب المظلم لتلك التكنولوجيا المتقدمة ظهر أسرع من المتوقع، وبدأ يشكل خطرًا على الأفراد والمجتمعات والمؤسسات، عبر تقنيات «التزييف العميق» التزييف العميقهي تقنية تقومُ على صنعِ فيديوهات مزيّفة عبر برامج الحاسوب من خِلال برامج الذكاء الاصطناعي. وتقومُ هذهِ التقنيّة على محاولة دمجِ عددٍ من الصور ومقاطع الفيديو لشخصيّةٍ ما من أجلِ إنتاج مقطع فيديو جديد – باستخدام تقنية التعلم الآلي – قد يبدو للوهلة الأولى أنه حقيقي لكنّه في واقع الأمر مُزيّف. كما أشارت...
    فى الوقت الذى يستخدم فيه البعض تقنيات الذكاء الاصطناعى، ومنها تقنية «التزييف العميق» فى شرح العلوم وتبسيطها وخلق الإبداع الفنى وتقديم الفائدة للآخرين، هناك من يستخدمها فى تزييف الحقائق ونشر الأكاذيب لتحقيق أهداف ومصالح شخصية أو إلحاق الضرر بالآخرين من خلال تشويه سمعتهم وابتزازهم.. فما هذه التقنية؟ وكيف تتم؟ وكيف يمكن كشفها ومواجهتها؟ بحسب توضيح خضر غليون، الخبير الدولى فى الذكاء الاصطناعى، فإن «التزييف العميق» أو «Deepfake» هى تقنية متقدمة مثيرة للجدل، يمكنها دمج وتعديل الصور ومقاطع الفيديو والتسجيلات الصوتية بطريقة احترافية للغاية، بحيث يصعب على الشخص العادى تمييزها عن الأصلية، وتعتمد على استخدام الخوارزميات المعقدة وتقنيات الذكاء الاصطناعى، مثل الشبكات العصبية الاصطناعية والتعلم العميق، لاستنساخ أنماط الوجه البشرى وحركاته ونبرات الصوت بدقة متناهية، ما يتيح إمكانية تزييف مقاطع...
    تحدثت الإعلامية عزة مصطفى، عن الذكاء الاصطناعي، وانتشار جرائم تركيب الصور والفيديوهات باستخدام برامج الفوتوشوب خاصة مع ظهور تقنيات الذكاء الاصطناعي، التي يمكنها التزييف العميق وإنتاج فيديوهات وصور لأشخاص ليس لهم علاقة بالمحتوى المصنوع.أضافت عزة مصطفى خلال برنامج «صالة التحرير» على قناة صدى البلد: «لازم ناخد بالنا كويس، لأن في برامج كتيرة اسمها التزييف العميق، ودي مشكلة كبيرة مقابلانا، وهاتقبلنا كتير فيما يتعلق بالأمن والسلم المجتمعي، لأن الذكاء الاصطناعي المخيف أصبح خطر بيلاحق البشر».  عمليات الابتزاز الإلكتروني وحذرت عزة مصطفى من خطورة استخدم الذكاء الاصطناعي في عمليات الإبتزاز الإلكتروني وإنتاج المحتوى المفبرك والمعدل بغرض طلب فدية أو أموال من الآخرين واختراق خصوصيتهم.
    أكدت الإعلامية عزة مصطفى، انتشار جرائم تركيب الصور والفيديوهات باستخدام برامج الفوتوشوب، خاصة مع ظهور تقنيات الذكاء الاصطناعي، التي يمكنها التزييف العميق وإنتاج فيديوهات وصور لأشخاص ليس لهم علاقة بالمحتوى المصنوع. تزييف الفيديوهات بالذكاء الاصطناعي وأضافت مصطفى، خلال برنامج «صالة التحرير» على قناة صدى البلد: «لازم ناخد بالنا كويس، لأن في برامج كتيرة اسمها التزييف العميق، ودي مشكلة كبيرة مقابلانا، وهاتقبلنا كتير فيما يتعلق بالأمن والسلم المجتمعي، لأن الذكاء الاصطناعي المخيف أصبح خطر بيلاحق البشر». استخدام الذكاء الاصطناعي وحذرت عزة مصطفى من خطورة استخدام الذكاء الاصطناعي في عمليات الابتزاز الإلكتروني وإنتاج المحتوى المفبرك والمعدل بغرض طلب فدية أو أموال من الآخرين واختراق خصوصيتهم.
    أكدت الإعلامية عزة مصطفى، انتشار جرائم تركيب الصور والفيديوهات باستخدام برامج الفوتوشوب خاصة مع ظهور تقنيات الذكاء الاصطناعي، التي يمكنها التزييف العميق وإنتاج فيديوهات وصور لأشخاص ليس لهم علاقة بالمحتوى المصنوع.الذكاء الاصطناعي أضافت عزة مصطفى، خلال برنامج «صالة التحرير» على قناة صدى البلد: «لازم ناخد بالنا كويس، لأن في برامج كتيرة اسمها التزييف العميق، ودي مشكلة كبيرة مقابلانا، وهاتقبلنا كتير فيما يتعلق بالأمن والسلم المجتمعي، لأن الذكاء الاصطناعي المخيف أصبح خطر بيلاحق البشر».وحذرت عزة مصطفى من خطورة استخدم الذكاء الاصطناعي في عمليات الابتزاز الإلكتروني وإنتاج المحتوى المفبرك والمعدل بغرض طلب فدية أو أموال من الآخرين واختراق خصوصيتهم.https://www.youtube.com/watch?v=bAfh9bKNQo0
    حذرت الإعلامية عزة مصطفى، من  خطورة استخدم الذكاء الاصطناعي في عمليات الابتزاز الإلكتروني وإنتاج المحتوى المفبرك والمعدل بغرض طلب فدية أو أموال من الآخرين واختراق خصوصيتهم. رابط url.. شاهد الان مباراة الهلال والنصر بث مباشر دون تقطيع SSC.. رابط مشاهدة مباراة الهلال مباشرة رابط URL بث مباشر مباراة الهلال ضد النصر تويتر: يلا كورة لايف الآن مشاهدة مباراة النصر والهلال بث مباشر اليوم يلا شوت [ نهائي البطولة العربية ] انتشار لجرائم تركيب الصور والفيديوهات وقالت مصطفى"، خلال  تقديمها برنامج "صالة التحرير" على قناة صدى البلد إن هناك انتشار لجرائم تركيب الصور والفيديوهات باستخدام برامج الفوتوشوب خاصة مع ظهور تقنيات الذكاء الاصطناعي، التي يمكنها التزييف العميق وإنتاج فيديوهات وصور لأشخاص ليس لهم علاقة بالمحتوى المصنوع. لازم ناخد بالنا كويسوتابعت: "لازم ناخد بالنا...
    تكنولوجيا، إنتل تزعم امتلاكها الأداة الأمثل لكشف الفيديوهات المزيفة،تستخدم إنتل تدفق الدم لكشف التزييف العميق بي بي سي الأحد 23 يوليو 2023 .،عبر صحافة الإمارات، حيث يهتم الكثير من الناس بمشاهدة ومتابعه الاخبار، وتصدر خبر إنتل تزعم امتلاكها الأداة الأمثل لكشف الفيديوهات المزيفة، محركات البحث العالمية و نتابع معكم تفاصيل ومعلوماته كما وردت الينا والان إلى التفاصيل. إنتل تزعم امتلاكها الأداة الأمثل لكشف الفيديوهات... تستخدم إنتل تدفق الدم لكشف التزييف العميق (بي بي سي) الأحد 23 يوليو 2023 / 15:25 في مارس (آذار) من العام الماضي، ظهر مقطع فيديو يظهر الرئيس فلاديمير زيلينسكي وهو يطلب من شعب أوكرانيا إلقاء أسلحتهم والاستسلام لروسيا. وكان التزييف العميق واضحاً جداً، وهو نوع من مقاطع الفيديو المزيفة التي تستخدم الذكاء الاصطناعي لمبادلة...
    تكنولوجيا، لماذا يتبنى بعض المشاهير تقنية التزييف العميق للذكاء الاصطناعي؟،أرشيف الأربعاء 19 يوليو 2023 17 40يبدو أن بعض المشاهير ومن .،عبر صحافة الإمارات، حيث يهتم الكثير من الناس بمشاهدة ومتابعه الاخبار، وتصدر خبر لماذا يتبنى بعض المشاهير تقنية التزييف العميق للذكاء الاصطناعي؟، محركات البحث العالمية و نتابع معكم تفاصيل ومعلوماته كما وردت الينا والان إلى التفاصيل. لماذا يتبنى بعض المشاهير تقنية التزييف العميق للذكاء... (أرشيف) الأربعاء 19 يوليو 2023 / 17:40 يبدو أن بعض المشاهير ومن بينهم الممثلة السنغافورية وعارضة الأزياء جيمي يو ليس لديهم مشكلة مع التزييف العميق. وفي الواقع فقد شاركت يو في هذه التقنية. وكانت يو تتحدث إلى بي بي سي في اليوم التالي لإصدار الجزء الجديد من برنامج تشارلي بروكر على نتفليكس. وفي الحلقة...
۱