وثيقة جديدة للتصدي لعمليات الاحتيال والتضليل في "الذكاء الاصطناعي"
تاريخ النشر: 19th, September 2024 GMT
طرحت الهيئة السعودية للبيانات والذكاء الاصطناعي، وثيقة مبادئ التزييف العميق، عبر منصة ”استطلاع“ بهدف وضع أدلة استرشادية واضحة للمطورين وصناع المحتوى والمستخدمين لتفادي أو معالجة الآثار المترتبة من استخدام تقنيات التزييف العميق والتخفيف من مخاطرها.
كما تتضمن توصيات ومبادئ أخلاقيات الذكاء الاصطناعي وممارسات حماية البيانات الشخصية.
أخبار متعلقة "سدايا" تطلق أول إطار مختص بمعايير الذكاء الاصطناعي في العالمانطلاق القمة العالمية للذكاء الاصطناعي بمشاركة 450 متحدثًا من 100 دولةاليوم الأول.. تفاصيل مذكرات التفاهم الموقعة في قمة الذكاء الاصطناعيصنّفت الوثيقة المخاطر الأساسية المرتبطة بتقنيات التزييف العميق الخبيثة إلى 3 فئات، تشمل العمليات الاحتيالية، التي تتمثل في تقنيات التزييف العميق لتقليد الأفراد الموثوق بهم بشكلٍ مقنع من أجل الحصول على معلومات حساسة أو خداع الضحايا، ومن خلال تكرار الأصوات وتعبيرات الوجه والسلوكيات.
وتتضمن أيضًا الاحتيال على الشركات المتعددة الجنسيات، أو التلاعب غير المصرح به استخدام تقنية التزييف العميق لإنشاء محتوى صريح أو مساومة للأفراد دون إذنهم، وغالباً ما يكون ذلك لأغراض متنوعة، مثل: المضايقة، أو الابتزاز، أو الإضرار بالسمعة، أو انتهاك الخصوصية، كفضيحة التزييف العميق للمشاهير.التضليل والدعاية
تشمل المخاطر الأساسية أيضًا التضليل والدعاية عن طريق نشر تقنيات التزييف العميق معلومات كاذبة، وتتلاعب بالتصور العام، وتؤثر على النتائج السياسية من خلال تصوير شخصيات سياسية تدلي ببيانات كاذبة أو تنخرط في سلوك غير أخلاقي، ويمكن استخدام هذا التكتيك لتقويض انتشار المعارضين، والتأثير على الرأي العام، وزعزعة استقرار المجتمعات، مما يؤدي إلى انتشار المعلومات الخاطئة، مثل حادثة التزييف العميق لزعيم سياسي.
أكدت الوثيقة أنه للتخفيف من المخاطر المرتبطة بالتزييف العميق، يجب على الأفراد والمؤسسات تنفيذ أفضل الممارسات والتي منها الحد من التعرض للبيانات الشخصية عبر الإنترنت، وتعزيز الثقافة حول مخاطر التزييف العميق، والتعرف على خصائص التزييف العميق، وتنفيذ عمليات تحقق قوية بالنسبة للمؤسسات لا سيما العاملة في مجال الإعلام والاتصالات.أخلاقيات الذكاء الاصطناعي
ألزمت الوثيقة، المطورين بأخلاقيات الذكاء الاصطناعي ويتم تشجيعهم على ضمان توافق تقنيات التزييف العميق مع المعايير الأخلاقية الموضوعة، حماية البيانات الشخصية، ومنع سوء الاستخدام.
وأكدت على امتثالهم للقوانين واحترام الأخلاق الاجتماعية والالتزام بالقيم الأساسية أمر ضروري لا يمكن التفريط فيه، ويجب أن تسهم التقنية في تسهيل التحقق من صحة المحتوى، ومنع إساءة استخدام الوسائط الاصطناعية، وتعزيز الممارسات المسؤولة والجديرة بالثقة.
وأوجبت الالتزام بالبروتوكولات الصارمة لجمع البيانات، واستخدام الحد الأدنى من البيانات الضرورية، وتطبيق إخفاء الهوية والأسماء المستعارة لتقليل مخاطر إعادة تحديد الهوية.الحفاظ على الخصوصية
اشترطت دمج تقنيات الحفاظ على الخصوصية في معالجة البيانات، وتقليل الاحتفاظ بالبيانات، وإنشاء دورات مراجعة آلية للتقييم المنتظم وحذف البيانات غير الضرورية، وتحقيق مبدأ الشفافية والوضوح، وتوثيق كل مكون من مكونات نموذج الذكاء الاصطناعي بما في ذلك مصادر البيانات وخطوات المعالجة المسبقة والبنية الخوارزمية وعملية اتخاذ القرار، وضمان أن هذه الوثائق قابلة للقراءة آلياً.
وأكدت الوثيقة على المطورين، تطوير وتطبيق تقنيات العلامات المائية الرقمية غير المتطفلة وضمان مقاومتها للهجمات الشائعة مثل إعادة الضغط، والقص، وتغيير المظهر، والحفاظ على الشفافية من خلال نشر تقارير منتظمة حول استخدام تقنيات التزييف العميق وتأثيرها، بما في ذلك التدابير المتخذة لمنع سوء الاستخدام.تطبيقات مفيدة
وشددت على توجيه تقنيات التزييف العميق نحو التطبيقات المفيدة اجتماعياً وبيئياً مثل التعليم، والترفيه، والرعاية الصحية، مع تجنب إساءة استخدام هذه التقنيات أو تطبيقها بشكل غير أخلاقي.
واشترطت على صناع المحتوى استخدام تقنية التزييف العميق بشكل مسؤول من خلال الالتزام بالمعايير الأخلاقية وحماية البيانات الشخصية ومنع سوء الاستخدام.
ونصت الوثيقة على أهمية الامتثال للقوانين واحترام الأخلاق الاجتماعية والمواءمة مع القيم الأساسية أمراً ضرورياً، نظرًا للتأثير المجتمعي الكبير للتزييف العميق، من الضروري توجيه صناعة المحتوى نحو الاستخدامات الإيجابية والبنَّاءة، بهدف الحفاظ على ثقة الجمهور، ومنع سوء الاستخدام، ومعالجة المخاطر، مثل العمليات الاحتيالية، والتلاعب غير المصرح به، والتضليل، والدعاية.فحص صحة المحتوى
وأوضحت الوثيقة أن يمكن تحديد التزييف العميق بشكلٍ فعَّال من خلال نهج يتكون من ثلاث خطوات لفحص صحة المحتوى، من خلال تقييم الرسالة من حيث المصدر والسياق، والهدف من المحتوى، وتحليل العناصر السمعية والبصرية كتناقضات الإضاءات وتغير لون الجلد، أو الأنماط الوامضة، ومصادقة المحتوى باستخدام أدوات الكشف من الذكاء الاصطناعي لتحليل المحتوى وإعطاء مؤشرات حول التلاعب.
وحثت الوثيقة أفراد المجتمع على الإبلاغ عن الحادث فعندما يتأثر شخص ما بالتزييف العميق، يمكن اتخاذ خطوات محددة لمعالجة الموقف وحماية سمعته، منها التعرف على أنواع الاستخدام الخبيث، وإبلاغ المنصة عن الحادث، ووإبلاغ السلطات المختصة، وطلب مشورة النظام، وإشراك الطب الشرعي الرقمي، وتوثيق الأدلة.
المصدر: صحيفة اليوم
كلمات دلالية: اليوم الوطني 94 اليوم الوطني 94 اليوم الوطني 94 الدمام الهيئة السعودية للبيانات والذكاء الاصطناعي سدايا منصة استطلاع تقنیات التزییف العمیق الذکاء الاصطناعی من خلال
إقرأ أيضاً:
السباق الاستخباراتي على الذكاء الاصطناعي
في لحظة فارقة على الساحة التكنولوجية الدولية، جاء إطلاق شركة "ديب سيك" الصينية نموذجا لغويا ضخما يُعد من بين الأفضل في العالم، بالتزامن مع تنصيب دونالد ترامب رئيسا للولايات المتحدة، ليدق ناقوس الخطر في الأوساط الاستخباراتية الأميركية.
واعتبر ترامب ما جرى "جرس إنذار" في حين أقر مارك وارنر نائب رئيس لجنة الاستخبارات بمجلس الشيوخ بأن مجتمع الاستخبارات الأميركي "فوجئ" بسرعة التقدم الصيني، وفق مجلة إيكونوميست.
اقرأ أيضا list of 2 itemslist 1 of 2النيجريون لفرنسا: اعترفي بالجرائم الاستعمارية وعوضي عنهاlist 2 of 2أنقذونا نحن نموت.. المجاعة تجتاح غزةend of listوفي العام الماضي، أبدت إدارة الرئيس الأميركي السابق جو بايدن قلقها من احتمال أن يتفوق الجواسيس والجنود الصينيون في سرعة تبنّي الذكاء الاصطناعي "إيه آي" (AI) فأطلقت خطة طوارئ لتعزيز اعتماد المجالين الاستخباراتي والعسكري على هذه التقنية.
وأوضحت المجلة في تقريرها أن الخطة تضمنت توجيه وزارة الدفاع الأميركية (البنتاغون) ووكالات الاستخبارات ووزارة الطاقة (المسؤولة عن إنتاج الأسلحة النووية) بتكثيف تجاربها على النماذج الأحدث من الذكاء الاصطناعي، وتوثيق التعاون مع مختبرات القطاع الخاص الرائدة مثل أنثروبيك وغوغل ديب مايند، وأوبن إيه آي.
سباق مفتوحوفي خطوة ملموسة، منح البنتاغون، في 14 يوليو/تموز الجاري، عقودا تصل قيمتها إلى 200 مليون دولار لكل من تلك الشركات بالإضافة إلى "إكس إيه آي" المملوكة للملياردير إيلون ماسك، بهدف تطوير نماذج من الذكاء الاصطناعي الوكيل الذي يمكنه اتخاذ القرارات، والتعلم المستمر من التفاعلات، وتنفيذ مهام متعددة من خلال تقسيمها إلى خطوات وتحكّمها بأجهزة أخرى مثل الحواسيب أو المركبات.
لكن هذا السباق لا يقتصر -برأي إيكونوميست- على البنتاغون. إذ باتت نماذج الذكاء الاصطناعي تنتشر بسرعة داخل الوكالات الاستخباراتية، لتُستخدم في تحليل البيانات السرية والتفاعل مع المعلومات الحساسة.
الشركات طورت نسخا مُعدّلة من نماذجها تتيح التعامل مع وثائق مصنّفة سرّيا، وتتمتع بإتقان لغات ولهجات حساسة لاحتياجات الاستخبارات، مع تشغيلها على خوادم مفصولة عن الإنترنت العام
كما طوّرت الشركات نسخا مُعدّلة من نماذجها تتيح التعامل مع وثائق مصنّفة سرّيا، وتتمتع بإتقان لغات ولهجات حساسة لاحتياجات الاستخبارات، مع تشغيلها على خوادم مفصولة عن الإنترنت العام.
إعلانففي يناير/كانون الثاني الماضي، أعلنت شركة مايكروسوفت أن 26 من منتجاتها في الحوسبة السحابية حصلت على تصريح لاستخدامها في وكالات الاستخبارات.
وفي يونيو/حزيران، أعلنت أنثروبيك عن إطلاق نموذج "كلود غوف" (Claude Gov) وهو روبوت دردشة جديد مصمم خصيصا للجهات العسكرية والاستخباراتية بالولايات المتحدة، مشيرة إلى أنه يُستخدم بالفعل على نطاق واسع في جميع أجهزة الاستخبارات الأميركية، إلى جانب نماذج أخرى من مختبرات منافسة.
منافسون آخرونليست وحدها الولايات المتحدة التي تشهد مثل هذه التطورات، حيث تفيد المجلة أن بريطانيا تسعى إلى تسريع وتيرة اللحاق بالركب، ناقلة عن مصدر بريطاني رفيع -لم تُسمِّه- تأكيده أن جميع أعضاء مجتمع الاستخبارات في بلاده بات لديهم إمكانية الوصول إلى "نماذج لغوية ضخمة عالية السرية".
وعلى البر الرئيسي للقارة، تحالفت شركة ميسترال الفرنسية -الرائدة والوحيدة تقريبا في مجال الذكاء الاصطناعي على مستوى أوروبا- مع وكالة الذكاء الاصطناعي العسكري بالبلاد، لتطوير نموذج "سابا" (Saba) المدرّب على بيانات من الشرق الأوسط وجنوب آسيا، ويتميز بإتقانه العربية ولغات إقليمية أخرى مثل التاميلية.
أما في إسرائيل، فقد أفادت مجلة "+972" أن استخدام الجيش نموذج "جي بي تي-4" (GPT-4) الذي تنتجه شركة "أوبن إيه آي" قد تضاعف 20 مرة منذ اندلاع الحرب على قطاع غزة، في مؤشر إلى مدى تسارع تبنّي هذه النماذج في السياقات العسكرية الحية.
ورغم هذا النشاط المحموم، يقرّ خبراء داخل القطاع بأن تبنّي الذكاء الاصطناعي بأجهزة الأمن لا يزال متواضعا. وتقول كاترينا مولِّيغان المسؤولة عن شراكات الأمن في "أوبن إيه آي" إن اعتماد الذكاء الاصطناعي "لم يصل بعد إلى المستوى الذي نأمله".
وحتى مع وجود جيوب من التميز، كوكالة الأمن القومي الأميركية، إلا أن العديد من الوكالات ما تزال تتخلف عن الركب، إما بسبب تصميمها واجهات تشغيل خاصة بها، أو بسبب الحذر البيروقراطي في تبني التحديثات السريعة التي تشهدها النماذج العامة.
ويرى بعض الخبراء أن التحول الحقيقي لا يكمن في استخدام روبوتات دردشة فحسب، بل في "إعادة هندسة المهام الاستخباراتية نفسها" كما يقول تارون تشابرا المسؤول السابق بمجلس الأمن القومي الأميركي، والمدير الحالي للسياسات الأمنية في شركة أنثروبيك.
لعبة تجسس بالذكاء الاصطناعيفي المقابل، تُحذر جهات بحثية من المبالغة في الآمال المعقودة على هذه النماذج، حيث يرى الدكتور ريتشارد كارتر (من معهد آلان تورينغ البريطاني) أن المشكلة الأساسية تكمن في ما تُنتجه النماذج من "هلوسات" -أي إجابات غير دقيقة أو مضللة- وهو خطر كبير في بيئة تتطلب الموثوقية المطلقة.
وقد بلغت نسبة الهلوسة في أحدث نموذج للذكاء الاصطناعي "الوكيل" الذي تنتجه "أوبن إيه آي" حوالي 8%، وهي نسبة أعلى من النماذج السابقة.
وتُعد هذه المخاوف -بحسب إيكونوميست- جزءا من تحفظ مؤسسي مشروع، خاصة في أجهزة مثل وكالة الاستخبارات والأمن البريطانية المعروفة اختصارا بحروفها الإنجليزية الأولى "جي سي إتش كيو" (GCHQ) التي تضم مهندسين لديهم طبيعة متشككة تجاه التقنيات الجديدة غير المُختبرة جيدا.
إعلانويتصل هذا بجدل أوسع حول مستقبل الذكاء الاصطناعي. فالدكتور كارتر من بين أولئك الذين يرون أن بنية النماذج اللغوية العامة الحالية لا تُناسب نوع التفكير السببي الذي يمنحها فهما متينا للعالم. ومن وجهة نظره، فإن الأولوية بالنسبة لوكالات الاستخبارات يجب أن تكون دفع المختبرات نحو تطوير نماذج جديدة تعتمد على أنماط تفكير واستدلال مختلفة.
الصين في الصورةورغم تحفّظ المؤسسات الغربية، يتصاعد القلق من تفوق الصين المحتمل. يقول فيليب راينر من معهد الأمن والتكنولوجيا في وادي السيليكون "لا نزال نجهل مدى استخدام الصين نموذج ديب سيك (DeepSeek) في المجالين العسكري والاستخباراتي" مرجحاً أن "غياب القيود الأخلاقية الصارمة لدى الصين قد يسمح لها باستخلاص رؤى أقوى وبوتيرة أسرع".
موليغان: ما يُقلقني فعلا هو أن نكسب سباق الوصول إلى الذكاء الاصطناعي العام (AGI)، لكن نخسر سباق التبني الفعلي له
وإزاء هذا القلق، أمرت إدارة ترامب، في 23 يوليو/تموز الجاري، وزارة الدفاع ووكالات الاستخبارات بإجراء تقييمات دورية لمستوى تبنّي الذكاء الاصطناعي في المؤسسات الأمنية الأميركية مقارنة بمنافسين مثل الصين، وتطوير آلية للتكيّف المستمر.
ويجمع المراقبون تقريبا على نقطة جوهرية، وهي أن الخطر الأكبر لا يكمن في أن تندفع أميركا بلا بصيرة نحو تبني الذكاء الاصطناعي، بل في أن تظل مؤسساتها عالقة في نمطها البيروقراطي القديم.
وتقول كاترينا مولِّيغان "ما يُقلقني فعلا هو أن نكسب سباق الوصول إلى الذكاء الاصطناعي العام (إيه جي آي AGI) لكن نخسر سباق التبني الفعلي له".