بالصور: الذكاء الاصطناعي يزيّف مشاهد الاعتداءات على لبنان… كيف نكشفها؟
تاريخ النشر: 12th, October 2024 GMT
بالتزامن مع الحرب بين حزب الله واسرائيل، تزداد المخاوف بشأن قدرة تقنية التزييف العميق على نشر الأخبار المضللة من خلال استغلال الذكاء الاصطناعي لصناعة محتوى زائف، بهدف اثارة مشاعر الغضب والتلاعب بانطباعات المتابعين وعواطفهم. فمئات الصور والقصص والأخبار والمعلومات المزيفة، اجتاحت مواقع التواصل الاجتماعي واكتسبت انتشارا واسعا مرتبطا بمتابعة مجريات النزاع.
منذ بداية الحرب، تم استخدام الصور المعدلة رقميا لتقديم منشورات وصور وفيديوهات كاذبة.
على سبيل المثال، تم تداول صورة على منصات مختلفة، تدعي أنها تظهر عواقب هجوم صاروخي على قاعدة رامات ديفيد الجوية في إسرائيل من قبل حزب الله في 22 أيلول. فخبر استهداف حزب الله قاعدة ومطار رامات ديفيد بعشرات الصواريخ من طراز "فادي" صحيح انما الصورة المنتشرة كانت مزيفة ومعدلة عبر تقنيات الذكاء الاصطناعي.
الى ذلك، أظهر "مونتاج" فيديو لضربات جوية في بيروت، نُشرعلى منصة "أكس"، حرائق هائلة في أفق المدينة ليتبيّن لاحقا أن المشهد الأكثر دراماتيكية صنع بواسطة الذكاء الاصطناعي.
وتم أخذ المقطع، الذي يُزعم أنه يُظهر لقطات نارية للقصف الإسرائيلي في لبنان، من مقطع فيديو قصير نُشر على TikTok بواسطة المستخدم @digital.n0mad ووضع علامة على الفيديو على أنه في بيروت.
هل من أداة خاصّة لكشف الصور؟
هناك أدوات عدّة لكشف هذه الصور وأخرى قيد التطوير، إلا أنّ النتائج التي تقدّمها ليست حاسمة، وقد تعطي نتائج غير دقيقة، بحسب تجارب قام بها صحافيو وكالة "فرانس برس".
ويشرح ديفيد فيشينغر المهندس المتخصّص في الذكاء الاصطناعيّ في جامعة فيينا للتكنولوجيا أنّ عمل الذكاء الاصطناعي لا يقوم على مجرّد اقتطاع أجزاء من صورٍ لإعادة تركيبها، إذ "يلجأ إلى ملايين بل مليارات الصور لاستخراج بيانات منها، ثمّ يعيد استخدامها لتوليد صورة جديدة تماماً".
لهذه الأسباب، لا يمكن لمنصّات كشف الذكاء الاصطناعي أن تصل لنتائج حاسمة في هذه المرحلة.
وبحسب الخبراء، أفضل طريقة لكشف حقيقة الصورة تكمن في العثور على مصدرها الأصليّ.
الى ذلك، ستعمل العديد من أدوات توليد الصور بالذكاء الاصطناعي على تعتيم الخلفية بالكامل، وهو ما يضمن عدم ظهور أي تفاصيل غريبة بسهولة.
ونتيجةً لذلك، تكون الخلفية الضبابية بالكامل مثيرة للشكوك حول طبيعة الصورة، ويمكن أن نعتبرها من العلامات. لكن إن كانت الخلفية واضحة، يجب أن تنظر فيها بعمق أكثر، فمن المحتمل جدا أن تكون خلفية صورة الذكاء الاصطناعي مشوهة.
والعلامة الأشهر في صور الذكاء الاصطناعي هي الأيدي الغريبة، فقد تتضمن صورة الشخص إصبعا سادسا، أو بدون إصبع الإبهام، أو تضيف مفصلا إضافيا، أو قد تختلط بعض الأصابع معا. وبالطبع، تطورت النماذج الآن وأصبحت تلك العلامة أقل وضوحا من السابق، لكن من الممكن ملاحظتها في الصور التي تجمع أكثر من شخص.
وفي أي صورة فيها مشهد جماعي، انتبه إلى الأشخاص الموجودين في الخلفية: من المحتمل أن يكون هناك عدد زائد من الأرجل، أو بعض الأيدي غريبة الشكل، أو ذراع معلقة حول كتف بلا جسد.
كما يمثل الشعر أيضا مشكلة بالنسبة لنماذج الذكاء الاصطناعي، قد تكتشف الصورة من مظهر وتصميم الشعر. ويتكون شعر الإنسان من خصلات تنساب من الرأس إلى أسفل، أما خصلات الشعر التي ينتجها الذكاء الاصطناعي في الصور فغالبا ما تكون بدايتها ونهايتها أقل وضوحا، وقد تبدو مرسومة عند ملاحظتها عن قرب.
في عالم تنتشر فيه أدوات الذكاء الاصطناعي بكثرة، وغالبا ما تظهر هذه الصور بدون أي تعريف يوضح أنها صور أنتجتها تلك النماذج، فما علينا الا التحقق من صحتها وعدم تصديقها فورا عند المشاهدة. المصدر: خاص "لبنان 24"
المصدر: لبنان ٢٤
كلمات دلالية: الذکاء الاصطناعی
إقرأ أيضاً:
كم من الأطفال يجب أن يَـقـتُـل الذكاء الاصطناعي؟
في الثامن والعشرين من فبراير 2024، أقـدَمَ سيويل سيتزر الثالث، صبي ذو أربعة عشر ربيعا من فلوريدا، على قتل نفسه تحت إلحاح من إحدى شخصيات الذكاء الاصطناعي الـمُـحاكية للحياة والمولدة بواسطة Character.AI، المنصة التي يُـقال إنها تستضيف أيضا روبوتات دردشة الذكاء الاصطناعي الداعمة لاختلال فقدان الشهية والتي تشجع على أنماط مُـخـتَـلّة في تناول الطعام بين الشباب. من الواضح أن الحاجة ماسة إلى اتخاذ تدابير أكثر قوة لحماية الأطفال والشباب من الذكاء الاصطناعي.
بطبيعة الحال، حتى من الناحية الأخلاقية البحتة، ينطوي الذكاء الاصطناعي على إمكانات إيجابية هائلة، من تعزيز صحة الإنسان وكرامته إلى تحسين الاستدامة والتعليم بين الفئات السكانية المهمشة. لكن هذه الفوائد الموعودة ليست مبررا للاستخفاف بالمخاطر الأخلاقية والتكاليف الواقعية أو تجاهلها. فكل انتهاك لحقوق الإنسان يجب أن يُنظر إليه على أنه غير مقبول أخلاقيا.
فإذا تسبب روبوت دردشة يعمل بالذكاء الاصطناعي ويحاكي الحياة في وفاة مراهق، فلا يجوز لنا أن نعتبر قدرة الذكاء الاصطناعي على الاضطلاع بدور في تطوير الأبحاث الطبية تعويضا عن ذلك. مأساة سيتزر ليست حالة معزولة. ففي ديسمبر الماضي، رفعت عائلتان في تكساس دعوى قضائية ضد Character.AI وداعمتها المالية، شركة جوجل، زاعمة أن روبوتات الدردشة الآلية التابعة للمنصة استغلت أطفالهم في سن المدرسة جنسيا وعاطفيا إلى الحد الذي أسفر عن وقوع حالات إيذاء النفس والعنف. لقد شاهدنا هذا الفيلم من قبل، فقد ضحينا بالفعل بجيل من الأطفال والمراهقين على مذبح شركات التواصل الاجتماعي التي تستفيد من الإدمان على منصاتها. لم ننتبه إلى الأضرار الاجتماعية والنفسية التي تسببها «وسائط التواصل غير الاجتماعي» إلا ببطء شديد.
والآن، بدأت بلدان عديدة تحظر أو تقيد الوصول إلى هذه المنصات، ويطالب الشباب أنفسهم بضوابط تنظيمية أقوى.
ولكن لا يمكننا الانتظار لكبح جماح قوى التلاعب الكامنة في الذكاء الاصطناعي. فبسبب الكميات الهائلة من البيانات الشخصية التي جمعتها منا صناعة التكنولوجيا، بات بوسع أولئك الذين يعملون على بناء منصات مثل Character.AI إنشاء خوارزميات تَـعرِفنا بشكل أفضل مما نعرف أنفسنا. الواقع إن إمكانية الاستغلال عميقة. فالذكاء الاصطناعي يعلم على وجه التحديد أي الأزرار التي ينبغي له الضغط عليها لاستغلال رغباتنا، أو لحملنا على التصويت بطريقة معينة. كانت روبوتات الدردشة المؤيدة لفقدان الشهية على منصة Character.AI مجرد المثال الأحدث والأكثر فظاعة. ولا يوجد أي سبب وجيه قد يمنعنا من حظرها على الفور. لكن الوقت ينفد سريعا، لأن نماذج الذكاء الاصطناعي التوليدي تتطور بشكل أسرع من المتوقع ــ وهي تتسارع في عموم الأمر في الاتجاه الخطأ. يواصل «الأب الروحي للذكاء الاصطناعي»، عالم العلوم الإدراكية الحائز على جائزة نوبل جيفري هينتون، التحذير من أن الذكاء الاصطناعي قد يؤدي إلى انقراض البشر: «أخشى أن اليد الخفية لن تُـبقي علينا سالمين. وعلى هذا فإن ترك الأمر برمته لدافع الربح الذي يحرك الشركات الكبرى لن يكون كافيا للتأكد من تطويرها إياه بأمان. الشيء الوحيد الذي قد يجبر هذه الشركات الكبرى على إجراء مزيد من الأبحاث حول السلامة هو التنظيم الحكومي».
ونظرا لفشل شركات التكنولوجيا الكبرى المستمر في الالتزام بالمعايير الأخلاقية، فمن الحماقة أن نتوقع من هذه الشركات أن تضبط نفسها بنفسها. في عام 2024، ضخت شركة جوجل استثمارات قيمتها 2.7 مليار دولار في تطبيق Character.AI، على الرغم من مشاكله المعروفة. ولكن على الرغم من الاحتياج الواضح إلى التنظيم، فإن الذكاء الاصطناعي ظاهرة عالمية، وهذا يعني أننا يجب أن نسعى جاهدين إلى وضع تنظيم عالمي، يرتكز على آلية إنفاذ عالمية جديدة، مثل وكالة دولية للأنظمة القائمة على البيانات (IDA) في الأمم المتحدة، كما اقترحتُ شخصيا.
إن كون الشيء في حكم الممكن لا يعني أنه مرغوب. يتحمل البشر مسؤولية تحديد أي التكنولوجيات والإبداعات وأشكال التقدم يجب تحقيقها وتوسيع نطاقها، وأيها لا ينبغي له أن يتحقق. وتقع على عاتقنا مسؤولية تصميم، وإنتاج، واستخدام، وإدارة الذكاء الاصطناعي بطرق تحترم حقوق الإنسان وتسهل تحقيق مستقبل أكثر استدامة للبشرية والكوكب. يكاد يكون من المؤكد أن سيويل كان ليظل على قيد الحياة لو كنا نعتمد على تنظيم عالمي لتعزيز «الذكاء الاصطناعي» القائم على حقوق الإنسان، ولو كنا أنشأنا مؤسسة عالمية لمراقبة الإبداعات في هذا المجال. يستلزم ضمان احترام حقوق الإنسان وحقوق الطفل حوكمة دورة حياة الأنظمة التكنولوجية بأكملها، بدءا من التصميم والتطوير إلى الإنتاج، والتوزيع، والاستخدام. وبما أننا نعلم بالفعل أن الذكاء الاصطناعي من الممكن أن يَـقـتُـل، فليس لدينا أي عذر يسمح لنا بالبقاء مكتوفي الأيدي في حين يستمر تقدم التكنولوجيا، مع إطلاق مزيد من النماذج غير المنظمة للجمهور كل شهر. مهما كانت الفوائد التي قد توفرها هذه التكنولوجيات يوما ما، فإنها لن تكون قادرة أبدا على التعويض عن الخسارة التي عانى منها بالفعل جميع من أحبوا سيويل.
بيتر ج. كيرششلاغر، أستاذ الأخلاق ومدير معهد الأخلاقيات الاجتماعية (ISE) في جامعة لوسيرن، وأستاذ زائر في المعهد الفدرالي السويسري للتكنولوجيا في زيورخ (ETH Zurich).