«معلومات الوزراء»: 254.8 مليون شخص استخدموا أدوات الذكاء الاصطناعي في 2023
تاريخ النشر: 27th, June 2024 GMT
أصدر مركز المعلومات ودعم اتخاذ القرار بمجلس الوزراء، تحليلاً جديدا تناول من خلاله تقنية التزييف العميق، وذلك بدءًا من زيادة اعتماد المستخدمين على تقنيات الذكاء الاصطناعي، ثم الانتقال إلى مفهوم التزييف العميق، وآليات عمل هذه التقنية، واستخدامات التزييف العميق، والمخاطر الناجمة عنها، وطرق الكشف عنها.
استخدام مجالات التكنولوجيا المختلفةوأوضح التحليل أن استخدام مجالات التكنولوجيا المختلفة -مثل الحوسبة السحابية والذكاء الاصطناعي والأمن السيبراني أصبح أمرًا مهمًّا في كل مناحي الحياة، بما في ذلك الاتصالات، والصناعة، والتجارة، والتعليم، والطب، والترفيه، وغيرها.
وعلى الرغم من أهمية استخدام التكنولوجيا والفوائد المترتبة عليها، فإنها يقابلها العديد من التحديات التي تتعلق بحفظ الخصوصية، والبيانات المزيفة، ومن بين هذه التحديات استخدام تقنيات التزييف العميق؛ حيث فرضت هذه التقنيات تحديات جديدة تتعلق بالأمان والخصوصية والمصداقية.
زيادة اعتماد المستخدمين على تقنيات الذكاء الاصطناعي تعكس التطور السريع في مجال التكنولوجياوذكر المركز أن زيادة اعتماد المستخدمين على تقنيات الذكاء الاصطناعي تعكس التطور السريع في مجال التكنولوجيا وتأثيره العميق في حياتنا اليومية. هذه الزيادة تعكس الثقة المتزايدة في القدرات التي يمكن أن يوفرها الذكاء الاصطناعي في تحسين الكفاءة وتبسيط العمليات في مختلف المجالات.
وبلغ عدد الأشخاص الذين يستخدمون أدوات الذكاء الاصطناعي عالميًّا نحو 254.8 مليون مستخدم عام 2023، أي أكثر من الضعف مقارنة بعام 2020، ومن المتوقع أن يستمر هذا النمو في عدد مستخدمي أدوات الذكاء الاصطناعي، ليتجاوز 700 مليون بحلول 2030.
تقنية التزييف العميق هي تقنية تقوم على صنع صور أو مقاطع فيديو مزيفة باستخدام البرامج الرقميةوأضاف التحليل أن تقنية التزييف العميق هي تقنية تقوم على صنع صور أو مقاطع فيديو مزيفة باستخدام البرامج الرقمية والتعلم الآلي وتبديل الوجه، وتعتمد هذه التقنية على دمج الصور لإنشاء لقطات جديدة تصور أحداثًا أو تصريحات أو أفعالًا لم تحدث في الواقع. ومع ذلك هناك صعوبة في معرفة وتحديد مدى صحة أو واقعية هذه الصور والفيديوهات.
وبناءً على ذلك، أصبح الاعتقاد بتوثيق الصوت والفيديو للواقع بأنه دليل على مصداقية البيانات والمعلومات، اعتقاد يشوبه الشك، فقد استغل مجرمو الإنترنت هذه التقنيات في زيادة القدرات الاحتيالية، والتي أصبحت تمثل تهديدات جديدة على مستوى الأفراد والمؤسسات والمجتمعات، سواء من خلال تصنيع المواد الإباحية للتشهير بشخص معين بغرض الانتقام أو الابتزاز، أو من خلال تصنيع ونشر البيانات والتصريحات والمعلومات المضللة لأغراض إثارة الفوضى والاحتيال المالي وإفساد الانتخابات وخلق الأزمات الدبلوماسية.
اختلاف أنواع تقنيات التزييف العميقوأشار التحليل إلى اختلاف أنواع تقنيات التزييف العميق، والتي يمكن أن تقع في إحدى الفئات الآتية:
١- المحتوى المرئي: استخدام تقنيات التزييف العميق في إنشاء الصور ومقاطع الفيديو، ويمكن أن يتم ذلك من خلال الآتي:
-تبديل الوجه: ركيب الوجه غير الحقيقي على الرأس المستهدف في الصور أو مقاطع الفيديو التي يتم تبديل الوجه بها.
-صور يتم إنشاؤها بالكامل: إنشاء الوجه الجديد بالكامل من البداية ليبدو واقعيًّا بدلًا من تبديل الوجه.
-مقاطع فيديو مزامنة الشفاه: هي مقاطع تظهر شخصًا يؤدي كلمات أو نصًا معينًا بالتزامن مع حركات الشفاه لجعل الأمر يبدو واقعيًّا، وذلك على الرغم من عدم وجود هذا النص في الفيديو الرئيس.
٢- المحتوى الصوتي: ويتم تحريف الصوت وتعديله إما من خلال استخدام ملف صوتي يتضمن حديثًا مزيفًا بنفس صوت الشخص، لكنه لم يقله في الواقع، أو من خلال تعديل نبرة صوت الشخص لإظهار مشاعر أو سلوك غير حقيقي.
وأشار التحليل إلى أن إنشاء فيديوهات التزييف العميق يتم باستخدام نظامين من أنظمة الذكاء الاصطناعي؛ المولد "Generator" والمميز "Discriminator". عندما ينتج نظام المولد فيديو جديدًا، يُرسل إلى نظام المميز لتحديد ما إذا كان الفيديو حقيقيًّا أم مزيفًا. إذا تأكد المميز من أن الفيديو حقيقي، يبدأ المولد في تعلم كيفية إنشاء فيديوهات تبدو أكثر قابلية للتصديق، وهكذا يستمر التطور في العملية.
ويُشكل النظامان معًا ما يُعرف بشبكة الخصومة التوليفية "GNN"، وتتطلب هذه التقنية مخزونًا من الفيديوهات يتم التعديل عليها. في البداية، يحتاج نظام المولد "Generator" إلى تدريب مستمر. وعندما يصل إلى مستوى مقبول من الجودة، يبدأ بإرسال فيديوهاته إلى الـمميّز "Discriminator". كلما زاد ذكاء المولد، زاد ذكاء الـمميّز بالتبعية. وبالتالي، يتم الوصول إلى فيديو معدّل بشكل كامل وقابل للتصديق للعين البشرية. ويوضح الشكل التالي كيفية عمل هذه التقنية.
واستعرض التحليل الاستخدامات الإيجابية التي تمتلكها تقنية التزييف العميق، وفيما يلي أهم هذه الاستخدامات:
-الاستخدامات الطبية والتعليمية: يمكن استخدام تقنية التزييف العميق لإنشاء عمليات محاكاة تفاعلية للعمليات الجراحية أو غيرها من الإجراءات، مما يوفر لطلاب الطب والمهنيين فرص تدريب قيمة. كما يمكن استخدام هذه التقنيات في دعم وتطوير أدوات الوصول المهمة. على سبيل المثال، قامت شركة Lyrebird الكندية باستخدام التزييف العميق لمساعدة مرضى التصلب الجانبي الضموري على التواصل عندما يفقدون قدرتهم على التحدث، وذلك من خلال استنساخ أصواتهم، حيث يمكن للأشخاص الاستمرار في "التحدث" من خلال تقنيات التزييف العميق.
-صناعة الترفيه: يمكن استخدام تقنيات التزييف العميق في صناعة الأفلام والإعلانات وتقديم الأخبار. كما يمكن إنشاء تأثيرات خاصة أكثر واقعية والسماح للممثلين بإعادة تمثيل أدوارهم حتى بعد وفاتهم.
-الصحافة: يمكن أن تساعد تقنية التزييف العميق في إعادة إنشاء الأحداث التاريخية وجذب الانتباه إلى القضايا المهمة. فعلى سبيل المثال، يحاكي مشروع "التعاطف العميق Deep Empathy" - مشروع مشترك بين اليونيسف ومعهد ماساتشوستس للتكنولوجيا- الشكل الذي ستبدو عليه المدن الأخرى إذا واجهت صراعات مماثلة لتلك الموجودة في الأحياء السورية أثناء الحرب. تهدف هذه الصور الاصطناعية لنيويورك ولندن وبوسطن وغيرها من المدن التي دمرتها نفس الظروف المزعزعة للاستقرار إلى إثارة التعاطف مع الضحايا الحقيقيين في جميع أنحاء العالم في سوريا أو مناطق أخرى.
-خدمة العملاء: من خلال خدمة المساعد الافتراضي، الذي يستخدم لتقديم خدمة العملاء في مراكز الاتصال.
المصدر: الوطن
كلمات دلالية: الحوسبة السحابية القضايا المهمة تحديات جديدة صناعة الأفلام طلاب الطب التكنولوجيا تقنیة التزییف العمیق الذکاء الاصطناعی هذه التقنیة یمکن أن
إقرأ أيضاً:
هل يمكن للذكاء الاصطناعي قراءة أفكار الإنسان؟.. العلم يجيب
على مدار العقدين الماضيين، تطورت تقنية الربط بين المخ البشري والأجهزة الإلكترونية التي تستخدم لمساعدة المعاقين على التحكم عن بعد في وسائل مساعدة مختلفة، مثل الأطراف الصناعية أو بعض الكمبيوترات المتخصصة أو أجهزة توليد الأصوات التي تتيح إمكانية التحدث للأشخاص الذين فقدوا القدرة على النطق على سبيل المثال.
وتعرف هذه التقنية باسم واجهة الدماغ والحاسوب Brain Computer Interface ، وهي تعمل عن طريق جهاز خارجي متصل بالدماغ أو شريحة إلكترونية مثبتة على القشرة الحركية للمخ، من أجل قراءة الإشارات العصبية الصادرة عن المخ، وتحويلها إلى أوامر مباشرة للأجهزة الإلكترونية المتصلة بها.
وتوصل باحثون إلى أن نطاق عمل هذه التقنية في بعض الأحيان يتجاوز الغرض منها، بحيث يتيح قراءة بعض الأفكار التي تراود المستخدم دون قصد منه.
ويقول الباحث ريتشارد أندرسون طبيب الأعصاب بمعهد كاليفورنيا للتكنولوجيا في الولايات المتحدة في تصريحات للموقع الإلكتروني "ساينتفيك أمريكان" المتخصص في الأبحاث العلمية إن "تثبيت أجهزة واجهة الدماغ والحاسوب على الفص الجداري للمخ يؤدي إلى استقبال إشارات عصبية من مناطق كثيرة في العقل البشري، وبالتالي يتوافر عدد كبير من الإشارات التي يمكن فك شفرتها بواسطة هذه الأجهزة".
ويرى باحثون أن قدرة هذا النوع من الأجهزة على الاطلاع على كثير من الأفكار الداخلية التي تراود الانسان تثير مخاوف أخلاقية بشأن كيفية التعامل مع البيانات التي يتم جمعها عن المستخدم، لاسيما في حالة ربط هذه الأجهزة بتقنيات الذكاء الاصطناعي.
وتعزز برامج الذكاء الاصطناعي من قدرة المنتجات الإلكترونية الاستهلاكية المستخدمة لقراءة الإشارات العصبية للمخ من الخارج، ويخشى المتخصصون من أن هذه الأجهزة، إذا ما تركت بدون ضوابط تنظيمية، سوف تعطي لشركات التكنولوجيا بيانات حديثة ودقيقة بشأن الاستجابات الداخلية للمستخدمين.
ويرى توم أوكسلي المدير التنفيذي لشركة "سينكرون" المتخصصة في صناعة واجهات الدماغ والحاسوب في نيويورك أن هذه التقنية الجديدة هي "المستقبل"، ويتوقع أن الرغبة في علاج الأمراض النفسية والاضطرابات العقلية ستؤدي إلى إتاحة المزيد من أجزاء المخ أمام هذه الأجهزة الحديثة بغرض استكشافها.
كيف نجعل هذه التقنية الجديدة آمنة؟
وأشار في تصريحات لموقع "ساينتفيك أمريكان" إلى أن الذكاء الاصطناعي سيستمر في تحسين قدرات فك الشفرات وتغيير طريقة عمل هذه التقنيات لخدمة المستخدم، وهو ما يقودنا على حد قوله إلى السؤال النهائي وهو: "كيف نجعل هذه التقنية الجديدة آمنة؟".
وتعتمد المنتجات الاستهلاكية لقياس الإشارات العصبية المتوافرة حاليا على تسجيل الإشارات الكهربائية للمخ، وهي عادة ما تأخذ شكل أجهزة أنيقة مثل سوار للمعصم أو سماعات للأذن أو خوذات مزودة بأقطاب كهربائية تثبت على الرأس.
ورغم أن هذه الأجهزة لا يمكنها فك شفرات العقل، فهي تستطيع أن تعكس صورة المخ بشكل عام عن طريق قياس درجة الانتباه أو الإرهاق أو التوتر. وتوفر بعض الشركات بالفعل أجهزة تكشف للمستخدم هذه المؤشرات الحيوية بغرض المساعدة في تحسين الأداء الرياضي أو التأمل أو زيادة الانتاجية وما إلى ذلك.
ويقول مارسيلو إينكا خبير أخلاقيات العلوم العصبية بالجامعة التقنية في ميونخ بألمانيا أنه من المتوقع على نطاق واسع أن يسمح الذكاء الاصطناعي في المستقبل بسبر أغوار الأنشطة العقلية للإنسان بشكل أكبر، واوضح أن وسائل تسجيل المخططات الكهربائية للمخ تسمح بقياس التغيرات الكهربائية الضئيلة التي تطرأ في مخ الانسان خلال أجزاء من الثانية عند رؤية عامل محفز معين. ومثل هذه الإشارات في حالة تحليلها بواسطة الذكاء الاصطناعي سوف تكشف عن درجة الانتباه وآلية اتخاذ القرار حيال تلك المحفزات.
وقد توصل إينكا خلال دراسة أجريت عام 2018 إلى أن معظم أجهزة واجهات المستخدم والكمبيوتر المتاحة آنذاك لا تراعي استخدام قنوات آمنة لتبادل البيانات التي يتم تسجيلها من المخ البشري ولا تطبيقات حديثة لحماية الخصوصية، ويقول إينكا: "أعتقد أن هذا الوضع لم يتغير إلى الآن.
في عام 2024، أجرت منظمة "نيورو رايتس" غير الربحية في نيويورك والمعنية بأخلاقيات التعامل مع البيانات العصبية دراسة تحليلية لسياسات التعامل مع البيانات المطبقة في ثلاثين شركة عاملة في مجال المنتجات الاستهلاكية الخاصة بقياس الإشارات العصبية، وتوصلت إلى أن الغالبية العظمى من هذه الشركات تسيطر على هذه البيانات بشكل كامل، وهو ما يعني أن بإمكانها أن تفعل بها ما تشاء بما في ذلك بيعها.
وفي استجابة لمثل هذه المخاوف، أصدرت حكومات بعض الدول مثل شيلي، فضلا عن النواب في أربع ولايات أميركية قوانين تضفي صفة الحماية لأي نوع من التسجيلات يتم الحصول عليها بواسطة واجهات المستخدم والكمبيوتر، ولكن إينكا ونيتا فرحاني خبيرة الاخلاقيات في جامعة ديوك بولاية نورث كارولينا أعربا عن المخاوف من أن مثل هذه القوانين غير كافية لأنها تركز على المعلومات في صورتها الخام، وليس على النتائج التحليلية التي يتم استخلاصها عن طريق الربط بين البيانات العصبية وبين التقنيات الرقمية الحديثة، ويعتقد أن البيانات التحليلية الخاصة بالصحة العقلية لشخص ما يمكن بيعها لطرف ثالث واستخدامها للتمييز ضده بل وحتى ابتزازه.
ويقول إينكا إن ما يعرف باسم "اقتصاد البيانات أصبح بالفعل يشكل انتهاكاً للخصوصية والحرية المعرفية"، مشيراً إلى أن إتاحة البيانات العصبية للبشر تشبه "إعطاء منشطات لاقتصاد البيانات القائم بالفعل".