في مايو/أيار 2023، انتشرت صورة مزيفة على منصات التواصل الاجتماعي تظهر انفجارا قرب مبنى وزارة الحرب (الدفاع سابقا) الأميركية، مما أدى إلى تراجع البورصة وخسارة مؤشر "ستاندرد آند بورز 500" أكثر من ربع نقطة مئوية، قبل أن يتبين لاحقا أن الصورة منتجة بالذكاء الاصطناعي، في وقت نفى فيه البنتاغون وقوع أي هجوم.

لم تكن هذه الحادثة استثناء، إذ نجحت صور مزيفة أخرى في خداع عشرات الملايين حول العالم، على سبيل المثال، صورة البابا فرانشيسكو وهو يرتدي معطفا أبيض فضفاضا، التي انتشرت على نطاق واسع في العام نفسه، حتى اعترف البابا نفسه في وقت لاحق أنه كان "ضحية" لصورة مزيفة.

اقرأ أيضا list of 2 itemslist 1 of 2كيف تحاول إسرائيل شيطنة الأونروا وتصفية ملف اللاجئين الفلسطينيين؟list 2 of 2حقيقة مشاهد متداولة لمقاتلات أميركية وزوارق هجومية قبالة السواحل الفنزويليةend of list

اليوم، وبعد أكثر من عامين، لم تعد هذه مجرد أمثلة عابرة، بل مؤشرات على أزمة تتفاقم بوتيرة متسارعة، وتطرح سؤالا أكثر إلحاحا: لماذا تواجه أدوات الكشف عن الصور صعوبة بالغة في تمييز المحتوى الحقيقي من المزيف، رغم التطور الكبير في تقنيات الذكاء الاصطناعي؟

قصور الأدوات التقنية

تشير دراسة نشرت في موقع "أركايف" (arXiv) إلى أن أدوات كشف الصور والفيديوهات المولدة بالذكاء الاصطناعي ما زالت تعاني من قصور شديد عند اختبارها في "العالم الواقعي".

واختبرت الدراسة التي قدمها باحثون أستراليون وكوريون جنوبيون مدى قدرة وفعالية أدوات كشف التزييف العميق، لتظهر أن هذه النماذج لم تتمكن من رصد سوى ثلثي الصور المزيفة.

غير أن التجارب العلمية تشير إلى أن المستخدمين يواجهون صعوبة بالغة في أداء المهام نفسها، إذ أظهرت نتائج دراسة مشابهة -نشرت يوليو/تموز الماضي، وشارك فيها أكثر من 12 ألف شخص من مختلف أنحاء العالم- أن دقة التمييز بين الصور الحقيقية والمزيفة لم تتجاوز 62%.

اللافت في الدراسة -التي اعتمدت على تحليل نحو 287 ألف حالة تقييم- أن المشاركين كانوا أكثر نجاحا في تمييز الصور المولدة بالذكاء الاصطناعي عندما كانت الصور تحتوي على وجوه بشرية، ومع ذلك، أخفقوا بشكل كبير عند التعامل مع صور من الطبيعة أو المناظر الحضرية.

إعلان

وتؤكد هذه الدراسات أن الاعتماد على "العين البشرية" وحدها أصبح رهانا خاسرا في مواجهة التزييف البصري، خصوصا مع سرعة تطور مضادة تتقن أدق التفاصيل في عناصر المحتوى البصري المولد بالذكاء الاصطناعي بدءا من منظور الصورة، وتناسق الظلال، والإضاءة، وصولا إلى الملمس وتعابير الوجوه.

هل نستطيع كشف التزييف؟

وللتصدي لهذا التحدي المتسارع، اتجه باحثون إلى إشراك الجمهور في عملية التحقق من الصور، على سبيل المثال، أطلق فريق من جامعة نورث ويسترن الأميركية تجربة تفاعلية بعنوان "كشف التزييف" (Detect Fakes)، التي تتيح للمستخدمين اختبار قدرتهم على التمييز بين الصور الحقيقية والمزيفة.

Take a few minutes for the win-win.

Educate yourself to the power of Deepfake media and also help bolster an MIT research project.https://t.co/KzqTANvMki pic.twitter.com/uLVfBUEqww

— Jason Moore ???? (@JimminyJilickrz) March 6, 2022

 

وتعتمد التجربة على قاعدة بيانات تحتوي على 138 صورة مولدة بالذكاء الاصطناعي، و42 صورة حقيقية، و9 صور من وسائل التواصل الاجتماعي، وطُلب من المشاركين توضيح مستوى ثقتهم بالحكم على الصور وأسباب اختيارهم.

One of these videos has been altered by #AI. The other hasn’t. Can you tell which is which? Find out how good you are at discerning AI-manipulated content and how you rank compared to others after your 10th guess! https://t.co/ttqkuIRKTX pic.twitter.com/5bzD8KDTdy

— MIT Media Lab (@medialab) May 5, 2020

 

كما أطلقت شركة مايكروسوفت أداة تفاعلية مشابهة تحمل اسم "ريل أور نوت" (Real or Not) لرفع الوعي بخطورة "التزييف العميق"، إذ تُمكن المستخدمين من اختبار قدرتهم على التمييز بين الصور الحقيقية والمولدة بالذكاء الاصطناعي.

 

وتهدف هذه الأدوات التفاعلية إلى تعزيز الوعي النقدي والبصري لدى الجمهور، بحيث لا يقتصر الاعتماد على الأدوات التقنية، التي تعجز أصلا عن أداء مهامها بفعالية، في ظل إغراق منصات التواصل الاجتماعي بالصور المنتجة بالذكاء الاصطناعي.

كما أن عدم تمييز خوارزميات المنصات بين الصور الحقيقية والمزيفة يجعل الأخيرة عرضة أكبر للانتشار، إذ تعمل على تفضيل المحتوى الذي يولد تفاعلات قوية مثل الإعجابات والتعليقات وعدد النقرات وإعادة المشاركات، بغض النظر عما إذا كانت حقيقية أم خضعت لتعديل أو توليد بواسطة التقنيات.

نتائج غير دقيقة

ورغم وجود عديد من الأدوات المخصصة لكشف الصور المولدة بالذكاء الاصطناعي، مثل "سايت إنجن" (Sightengine)، و"إيه آي أور نوت" (AI or Not)، و"إليومينارتي" (illuminarty)، و"ديكوبي إيه آي" (Decopy AI)، و"هايف موديريشن" (HIVE MODERATION)، فإنها يجب ألا تكون مرجعا دقيقا يمكن الوثوق به بشكل مطلق، خاصة للصحفيين في غرف الأخبار أو مدققي الحقائق.

فعندما خضعت هذه النماذج لاختبارات عملية باستخدام صورة يظهر جليا للعين البشرية أنها منتجة بواسطة الذكاء الاصطناعي، أظهرت الأدوات نتائج غير دقيقة ومضللة في بعض الحالات.

 

نموذج صورة مصممة بالذكاء الاصطناعي مع اختلاف النتائج على المواقع والأدوات المختصة لكشف التزييف

 

حتى الأدوات الأكثر تقدما مثل "رياليتي ديفندر" (Reality Defender) المتخصصة في كشف التزييف العميق (Deep fakes) عندما خضعت لاختبارات عملية أجراها فريق "الجزيرة تحقق" أظهرت نتائج غير دقيقة في بعض النماذج.

إعلان

ورغم تطور تقنيات تحليل ومعالجة الصور، فإن هذه الأدوات تبقى عاجزة عن التمييز بشكل قاطع بين الصور الحقيقية والمزيفة، كما أن الرهان على قدرة الجمهور وحده في مواجهة التضليل يظل محدودا، في وقت تتسارع فيه وتيرة انتشار التزييف العميق، بالتوازي مع تنوع أساليب التحايل والإفلات من أدوات التدقيق.

دور الشركات الكبرى

أمام هذا التحدي، يبرز دور شركات التقنية الكبرى في محاولة سد الفجوة الهائلة، إذ أعلنت شركة "غوغل" مايو/أيار الماضي تطوير أداة تحمل اسم "سينث آي دي ديتكتور"(SynthID Detector) تتيح للمستخدمين معرفة إذا ما كان النص أو الصورة أو الفيديو قد أنتج أو خضع لتعديل بواسطة الذكاء الاصطناعي.

We’re making updates to SynthID, which embeds invisible watermarks into generated media. To date, over 10 billion pieces of content have been watermarked. Now with SynthID Detector, you can upload media and find out if it has a SynthID watermark in it. We’re starting to roll this… pic.twitter.com/3Am0ayW3vY

— Google (@Google) May 20, 2025

وتعتمد الأداة على تقنية العلامات المائية الرقمية غير المرئية داخل الصور، ويمكن لهذه العلامات أن تُكتشف عبر الأداة نفسها، ومع ذلك، فإن الخدمة لا تزال في مرحلة تجريبية محدودة لمجموعة من الصحفيين والباحثين.

SynthID Detector is a new portal to help journalists, media professionals and researchers more easily identify whether content has a SynthID watermark. Here’s how it works → https://t.co/5pRcGs81Ko #GoogleIO

— Google (@Google) May 21, 2025

 

أما شركة "أوبن إيه آي" فأعلنت في مايو/أيار 2024 إطلاق أداة متخصصة لكشف الصور المولدة عبر نموذجها "دال-إي 3" (DALL·E 3) لتحويل النص إلى صور، بدقة تقارب 98% عند التعامل مع الصور الأصلية، لكنها متاحة أيضا لعدد محدود من الباحثين والمؤسسات الإعلامية.

We’re rolling out the ability for ChatGPT Free users to create up to two images per day with DALL·E 3.

Just ask ChatGPT to create an image for a slide deck, personalize a card for a friend, or show you what something looks like. pic.twitter.com/3csFTscA5I

— OpenAI (@OpenAI) August 8, 2024

وفي ديسمبر/كانون الأول 2024، كشفت الشركة عن أن مقاطع الفيديو المنتجة عبر نموذجها "سورا" (Sora) الذي يحول النص إلى فيديو، ستتضمن علامات مائية وبيانات للإشارة إلى أنها مولدة بالذكاء الاصطناعي.

وفي خطوة مشابهة، قامت "مايكروسوفت" بدمج أدوات وفق معيار "سي 2 بي إيه" (C2PA) داخل منتجاتها الخاصة بتوليد الصور مثل "كوبايلوت" (Copilot) و"بينت" (Paint) بحيث يتمكن المستخدم من الاطلاع على بيانات المصدر ووقت الإنشاء، بالإضافة إلى معرفة إذا ما كان المحتوى المرئي قد أنتج باستخدام الذكاء الاصطناعي.

كما عززت الشركة تدابيرها التقنية بإضافة ميزة تشويش وجوه الأشخاص في الصور المرفوعة على مساعد الذكاء الاصطناعي "كوبايلوت" للحد من احتمالات إساءة الاستخدام والتلاعب.

الخلاصة

في الختام، تؤكد التجارب العملية والدراسات الحديثة أن أغلب أدوات كشف الصور المولدة بالذكاء الاصطناعي إما مدفوعة التكاليف، أو محدودة الدقة، أو متاحة في نطاق ضيق يقتصر على الباحثين والصحفيين والمؤسسات الإعلامية.

كما أن الثغرات توسع فجوة الثقة وتترك الجمهور في مواجهة سيل من الصور التي يصعب التحقق من مصداقيتها، مع الانتشار المتسارع للتزييف العميق، وعدم قدرة "العين البشرية" على تمييز المحتوى الحقيقي من المزيف، مما يستدعي تكثيف الجهود البحثية والتقنية لتطوير أدوات أكثر فعالية لمواجهة هذا التحدي.

إعلان

المصدر: الجزيرة

كلمات دلالية: غوث حريات دراسات تحليلات الصور المولدة بالذکاء الاصطناعی الذکاء الاصطناعی التزییف العمیق pic twitter com

إقرأ أيضاً:

البديوي: دول المجلس أولت اهتمامًا بالذكاء الاصطناعي إدراكًا منها لدوره المحوري في تشكيل ملامح الاقتصاد العالمي الجديد

أكّد معالي الأمين العام لمجلس التعاون لدول الخليج العربية، الأستاذ جاسم محمد البديوي، أن قادة دول المجلس استشرفوا المستقبل، فعملوا على تحقيق التكامل والتقارب في مختلف المجالات، مشيرًا إلى أن مسيرة التعاون لا ينبغي أن تُحصر في مجالات بعينها، بل تشمل كل ما يمس حياة الإنسان وأمنه وتنميته واقتصاده. وبناءً عليه، فقد أولت دول المجلس اهتمامًا متزايدًا بقطاع الذكاء الاصطناعي، إدراكًا منها لدوره المحوري في تشكيل ملامح الاقتصاد العالمي الجديد.

جاء ذلك خلال مشاركة معاليه في المنتدى البرلماني التشريعي “أفضل الممارسات التشريعية في مجال الذكاء الاصطناعي”، اليوم بمدينة أبوظبي.

وأوضح معاليه أن التقديرات تشير إلى أن استثمارات دول المجلس في هذا القطاع بلغت عشرات المليارات من الدولارات خلال السنوات القليلة الماضية، مع خطط طموحة لزيادة هذه الاستثمارات إلى مئات المليارات بحلول عام 2030. وهذا يعكس التوجه الإستراتيجي لدولنا نحو بناء اقتصاد معرفي قائم على الابتكار والتقنيات المتقدمة، وتعزيز مكانة المنطقة مركزًا عالميًا رائدًا في هذا المجال, وهنا يبرز دور التشريع في بناء أطر قانونية متجددة تحقق التوازن بين أمرين أساسيين: تشجيع الابتكار والانفتاح على التطوير، وحماية الحقوق وصون القيم الإنسانية والمجتمعية, فالتشريع الرشيد ليس عائقًا أمام التقدم، ولا يترك المجال خاليًا لتطبيقات قد تهدد الخصوصية أو الأمن أو العدالة الاجتماعية.

كما أكّد البديوي حرص الأمانة العامة لمجلس التعاون على بناء شراكات مثمرة مع مراكز إقليمية ودولية في مجال الذكاء الاصطناعي، ومنها المركز الدولي لأبحاث وأخلاقيات الذكاء الاصطناعي التابع لهيئة البيانات والذكاء الاصطناعي في المملكة العربية السعودية، إلى جانب التعاون مع منظمات دولية رائدة مثل الويبو والمنظمة الدولية للمعايير, وأثمر هذا التعاون عن عقد ورش عمل وفعاليات خليجية مشتركة أسهمت في تبادل الخبرات وتعزيز القدرات.

وتطرق معاليه إلى مبادرة الأمانة العامة، وموافقة اللجنة الوزارية للحكومة الرقمية، على تشكيل فريق معني بالذكاء الاصطناعي والتقنيات الناشئة في يونيو 2021م، يعمل على دعم البحث والتطوير بين دول المجلس في هذا المجال، وتحسين الخدمات الرقمية الحكومية، وإيجاد بيئة تنظيمية وتشريعية مرنة تستجيب لمتطلبات المستقبل، والتوصل لعدد من الإنجازات، في مقدمتها: الدليل الاسترشادي لأخلاقيات استخدام الذكاء الاصطناعي، والإطار العام لدعم تطبيقات الذكاء الاصطناعي في الخدمات العامة، والإطار العام لمبادرة التنبؤ بالمناخ وإدارة الكوارث باستخدام الذكاء الاصطناعي.

وأشار الأمين العام إلى أن المرحلة الراهنة تفرض صياغة رؤية متكاملة تعزز التعاون بين المجالس التشريعية والحكومات والقطاع الخاص والمجتمع المدني والمؤسسات الأكاديمية، وأن مسؤوليتنا اليوم لا تقتصر على سن قوانين جديدة فحسب، بل تمتد إلى صياغة عقد اجتماعي وتشريعي يضع الإنسان في قلب معادلة الذكاء الاصطناعي, معربًا عن أمله بالخروج بتوصيات عملية تعزز التعاون التشريعي الخليجي، وتدعم تبادل الخبرات مع الشركاء الدوليين، لمواكبة المستقبل وضمان الاستخدام المسؤول للذكاء الاصطناعي.

جريدة الرياض

إنضم لقناة النيلين على واتساب

مقالات مشابهة

  • البديوي: دول المجلس أولت اهتمامًا بالذكاء الاصطناعي إدراكًا منها لدوره المحوري في تشكيل ملامح الاقتصاد العالمي الجديد
  • بالذكاء الاصطناعي.. دوللي شاهين تطرح كليب أغنية «ترند» باللهجة الإسبانية
  • تامر حسني يعيد الحياة لأساطير المسرح المصري بالذكاء الاصطناعي (فيديو)
  • سيمنار يناقش تحديات و مستقبل اكتساب الإنجليزية بالذكاء الاصطناعي بجامعة حلوان
  • one to one.. أول برنامج عربي يحاور النجوم بالذكاء الاصطناعي دون مذيع
  • سبوتيفاي تشدد الرقابة على الموسيقى بالذكاء الاصطناعي
  • تريندز يعرف طلبة جامعة الإمارات على طرق استخدام الذكاء الاصطناعي لتعزيز التفكير الإبداعي
  • عاجل | التربية تطلق المساعد الذكي “سراج” لدعم التعليم بالذكاء الاصطناعي
  • من صورة إلى وهم.. الوجه الآخر لتريند الذكاء الاصطناعي
  • الكشف عن استخدام أدوات تجسس إسرائيلية على الهواتف المحمولة من قبل جهة أمنية في حضرموت