بعد "طوفان الأقصى" وبدء القصف الوحشي على قطاع غزة أكتوبر/تشرين الأول الجاري، انتشرت على وسائل التواصل الاجتماعي واحدة من الصور المثيرة للجدل، أظهرت (1) جنديا إسرائيليا كأنه أحد الأبطال الخارقين في أفلام هوليوود، يحمل بين يديه طفلين رضيعين زُعم أنه أنقذهما من حماس بعدما اختطفهما مسلحو الحركة وأودعوهما داخل خزانة في قطاع غزة.

ورغم الانتشار واسع النطاق للصورة، تبين فيما بعد أنها مولدة بواسطة أدوات الذكاء الاصطناعي.

 

هذا النوع من المعلومات المضللة هو ما استدعى من العالم البريطاني ديميس هاسابيس المتخصص في مجال الذكاء الاصطناعي أن يصرح (2) قائلا: "علينا أن نتعامل مع مخاطر الذكاء الاصطناعي بالقدر نفسه من الجدية الذي نتعامل به مع أزمة المناخ"، مضيفا أن تلك التكنولوجيا الجديدة الفائقة لها وجه آخر مظلم يختلف عما نعرفه عنها؛ إذ بمقدورها أن تصبح أداة للقتل وأن تساهم في صنع الأسلحة البيولوجية، وفوق كل هذا يمكن استخدام قدراتها للتلاعب بالعقول وتوجيه الرأي العام من خلال تقنيات توليد المحتوى المكتوب والمرئي التي تُستخدم وسيلة فعالة في "الحروب المعلوماتية".

 

في الحقيقة، ساهم عصر المعلومات (3) في جعل العالم الذي نحياه مكانا أكثر التباسا، ومع وجود مثل هذه التقنيات لم يعد بمقدورنا أن نثق فيما يُقدَّم لنا من أخبار وقصص، خاصة بعدما امتلأت وسائل الإعلام بتكهنات غير مؤكدة وأخبار زائفة ومُختلقة، وهو ما نراه اليوم جليا في الحرب التي يشنها الاحتلال الإسرائيلي على قطاع غزة.

 

"40 طفلا مقطوعي الرأس"في مايو/أيار 2021، وصف (4) جيش الاحتلال الإسرائيلي معركة "حارس الأسوار" التي شنتها قوات الاحتلال على قطاع غزة بأنها أول "حرب ذكاء اصطناعي" في العالم، إذ ساهمت هذه التكنولوجيا الفائقة بحسب المسؤولين الإسرائيليين (5) في مضاعفة قوة الجيش الإسرائيلي خلال القتال الذي استمر 11 يوما، وذلك بفضل الأسلحة الآلية وبرامج التجسس وأدوات تتبع ومراقبة الفلسطينيين. هذه الادعاءات نفسها نفسها تكررت في الأيام القليلة الفائتة لوصف الهجمات التي يشنها العدوان الإسرائيلي حاليا على القطاع تحت اسم عملية "السيوف الحديدية"، لكن هذه المرة السبب مختلف. فالنهج نفسه الذي استُخدم في تتبع الأهداف على الأرض والاشتباك معها، استُخدم أيضا في الفضاء الإلكتروني لاستهداف الجمهور وتوجيه الرأي العام.

خير مثال على ذلك ما حدث يوم 7 أكتوبر/تشرين الأول الفائت تزامنا مع عملية "طوفان الأقصى"، عندما فوجئ المجتمع الدولي بالادعاءات (6) التي أطلقها جيش الاحتلال الإسرائيلي ومكتب رئيس الوزراء بنيامين نتنياهو، واتهمت أفراد حركة المقاومة الفلسطينية (حماس) بقطع رؤوس 40 رضيعا.

 

نفت حركة المقاومة حماس الرواية الإسرائيلية، لكن تلك "المعلومة المضللة الصغيرة" انتشرت مثل النار في الهشيم وتداولتها وكالات الأنباء العالمية بوصفها حقيقة مؤكدة، خاصة بعدما أكدها الرئيس الأميركي جو بايدن زاعما أنه رأى صور الرضع مقطوعي الرأس بنفسه، وهو التصريح الذي تراجع عنه البيت الأبيض بعدها نافيا رؤية أية صور. وبحسب تقرير (7) أصدره معهد الشرق الأوسط للتفاهم "Institute for middle east understanding"، لم يقدم جيش الاحتلال الإسرائيلي أي دلائل تدعم صحة مزاعمه، رغم مرور أكثر من 20 يوما على بدء الحرب.

 

لم تقف الادعاءات الإسرائيلية عند هذا الحد، وهذه المرة استُخدمت صورة رضيع متفحم داخل مستشفى إسرائيلي، أُشيع أنها لطفل من ضحايا السابع من أكتوبر/تشرين الأول، الأمر الذي تسبب في شحذ الرأي العام ضد المقاومة الفلسطينية، لكن بالكشف على الصورة (8) تبين أنها هي الأخرى من إنتاج برامج الذكاء الاصطناعي.

(الذكاء الاصطناعي يفضح كذب نتنياهو بنشره صورة يدعي أنها لطفل إسرائيلي)

تتخذ الحرب المعلوماتية لدى إسرائيل أشكالا عدة (9)، فهي تنشر المعلومات الكاذبة والمضللة حينا، وتعمل على تشويه الصورة العامة للخصوم السياسيين في حين آخر، وكل هذا جزء من عملية الحرب الدعائية التي تهدف إلى الترويج لوجهة نظر معينة وتشكيل الرأي العام. فقد استغلت إسرائيل بطريقة ممنهجة التحول الرقمي الذي شهدته وسائل الإعلام المختلفة، والكيفية التي أصبحت بها وسائل التواصل الاجتماعي أداة لتبادل الأخبار، واستخدمت ذلك في حربها المعلوماتية على غزة طوال العقد الماضي بما يخدم أهدافها العسكرية، وهو ما نستطيع أن نرى آثاره في الحرب الدائرة داخل القطاع الآن.

 

جيش من الروبوتات

على مدار القرنين الفائتين، كانت الصورة هي الوسيط الأكثر موثوقية لنقل أخبار الحروب، فقد تعرفنا على هول المعارك من الصور التي التقطها مصورو الحروب الأوائل منتصف القرن التاسع عشر وبدايات القرن العشرين، حينها اكتشفنا الموت من جديد منعكسا على ورق الفوتوغراف، وتأملنا من خلاله لا إنسانية الإنسان، كما يقول بيري ساندرز في كتابه "اختفاء الكائن البشري" (10)، حتى بِتنا نثق بالصورة ونصدقها.

 

جاء عصر التزييف العميق لصور الفوتوغراف والتسجيلات الصوتية ليضرب هذه الثقة والمصداقية في مقتل، فهو يكذب ما تراه أعيننا وتسمعه آذاننا، وتلك هي الأزمة التي نعايشها اليوم في عالمنا الرقمي المرتبط بالإنترنت. نقد جيمس برايدل عصر المعلومات الذي نحياه في كتابه "عصر مظلم جديد" قائلا إن المشكلة لا تكمن في نقص المعلومات، بل في زيادتها المفرطة، وقد أتاحت (11) لنا ثقافة الإنترنت سهولة مشاركة الصور والفيديوهات على مواقع التواصل الاجتماعي دون التحقق من صحتها، خاصة إن كانت تلك الصور تداعب مشاعر الجماهير وتقدم قصصا مؤثرة ومتماسكة، ولهذا تنتشر المعلومات المضللة بصورة أكبر.

 

ساهمت ثورة الذكاء الاصطناعي في تعميق هذه المشكلة، ونتج عنها زيادة المعدل الإجمالي لحجم المعلومات المضللة. فنحن نشهد اليوم أدوات "تفبرك" الصور في دقائق معدودة، و"بوتات" محادثة بإمكانها أن تولد أخبارا من لا شيء، وهو ما يغير من قواعد لعبة الحرب إلى الأبد (12). ولمواجهة هذا السيل من الأخبار الزائفة، قامت منصات التواصل الاجتماعي، وعلى رأسها عملاق التكنولوجيا شركة "ميتا" (Meta) المالكة لمنصات فيسبوك وإنستغرام وثريدز، باتخاذ الإجراءات اللازمة لحذف المحتوى المخالف والضار (13)، لكن تلك الصلاحية التي من المفترض أن تُستخدم لمحاربة المعلومات المضللة، استُخدمت أداةً للرقابة وتكميم الأفواه منذ أن شنت إسرائيل حربها على غزة.

 

شنت مواقع التواصل الاجتماعي حربا موازية اقتصَّت فيها من المحتوى المؤيد للقضية الفلسطينية، مصنفة إياه بأنه معلومات مضللة أو تحريض على العنف، وفي المقابل، نجد المنشورات التي تدعم قصف إسرائيل الوحشي تحظى بالتشجيع من خوارزميات مواقع التواصل، بما يؤهلها للظهور بشكل أكثر فاعلية. هذا ما أشار إليه أليس جيكر عندما تحدث عن "جيوش الروبوتات" الخاصة بالذكاء الاصطناعي التي تعمل على تصفية المحتوى، وتحديد ما إذا كان مناصرا لإسرائيل أم ضدها، فإذا كان مع إسرائيل فإن جيشا من الروبوتات سيولد لها سيلا من ردود الفعل الإيجابية من الإعجابات والمشاركات، أما إذا كان المحتوى ضدها، فستعمل تلك الروبوتات بالإبلاغ عنه حتى لا يلقى هذا المحتوى غير المرغوب فيه أي تفاعل (14).

 

قصف المعمداني وحروب المعلومات

لم تقف الأمور عند هذا الحد. فعندما وقع القصف الذي استهدف المستشفى الأهلي "المعمداني" بغزة يوم 17 أكتوبر/تشرين الأول، خرج المتحدث الرسمي باسم جيش الاحتلال الإسرائيلي مدعيا أن الصاروخ المتسبب في تلك المأساة الإنسانية ناجم عن عملية إطلاق فاشلة لأحد صواريخ "حركة الجهاد الإسلامي"، واستندت روايته إلى زَعْمَين، الأول كان مقاطع فيديو وصور التُقطت بواسطة الأقمار الصناعية، والثاني كان تسجيلا صوتيا يقال إنه لمكالمة هاتفية بين عضو سابق في حركة (حماس) وأحد سكان القطاع، وقد شككت العديد من المصادر في صحة الأمرين.

 

من جانبها، أجرت (16) صحيفة "نيويورك تايمز" تحليلا موسعا لمقاطع الفيديو التي وردت في الرواية الإسرائيلية، مشيرة إلى وقوع انفجارين بالقرب من المستشفى المعمداني في غضون دقيقتين من القصف، وقد شككت في أن يكون الصاروخ الذي ظهر في الفيديو وبنى عليه المسؤولون الإسرائيليون روايتهم هو المتسبب في انفجار المستشفى.

 

في الوقت ذاته أكدت تغطيات إعلامية (17) بأن الصاروخ الذي ضرب المستشفى المعمداني قد سقط بشكل رأسي، وهو ما يتعارض مع الرواية الإسرائيلية بشأن إطلاقه من مقبرة قريبة من المستشفى. أما فيما يخص المكالمة الهاتفية، فقد قوبل التسجيل الصوتي (18) الذي أصدرته إسرائيل بالشك هو الآخر من قِبَل الخبراء، إذ أجرت (19) القناة الرابعة البريطانية تحقيقا شكَّك في أن تكون اللهجة المستخدمة في التسجيل هي اللهجة المحلية لسكان القطاع، وهو ما يفتح الباب أمام احتمالية قوية لأن يكون التسجيل مفبركا، وهو أمر يتسق تماما مع ممارسات التزييف التي سقطت فيها دولة الاحتلال الإسرائيلي مرارا منذ بدء الحرب.

———————————————————-

المصادر: "This is probably the first AI war" AI risk must be treated as seriously as climate crisis, says Google DeepMind chief عصر مظلم جديد Israel’s operation against Hamas was the world’s first AI war Automated Apartheid: How Israel’s occupation is powered by big tech, AI, and spyware Israel falsely accused of sharing fake images of Hamas atrocities using AI Fact Sheet: Israel’s History of Spreading Disinformation الذكاء الاصطناعي يفضح كذب نتنياهو بنشره صورة يدعي أنها لطفل إسرائيلي Israel’s information war اختفاء الكائن البشري – أرواح غافلة Real images or fake news? How to avoid sharing misinformation on social media IntelBrief: AI-Powered Disinformation in the Israel-Hamas War and Beyond Meta ‘taking steps’ to censor support for Palestinian resistance Pro-Palestinian creators use secret spellings, code words to evade social media algorithms المتحدث باسم الجيش الإسرائيلي: حماس ضخمت أرقام القتلى في انفجار المستشفى A Close Look at Some Key Evidence in the Gaza Hospital Blast قناة بريطانية: إسرائيل زيفت الأدلة بشأن استهداف مستشفى المعمداني بغزة Gaza Baptist Hospital massacre: Why Israeli Hamas ‘audio evidence’ is probably disinformation Who was behind the Gaza hospital blast – visual investigation

المصدر: الجزيرة

كلمات دلالية: جیش الاحتلال الإسرائیلی أکتوبر تشرین الأول المعلومات المضللة التواصل الاجتماعی الذکاء الاصطناعی الرأی العام قطاع غزة وهو ما

إقرأ أيضاً:

احتيال شركات الذكاء الاصطناعي يجب أن يتوقف

مع تقدم الذكاء الاصطناعي وتغلغله في حياتنا على نحو متزايد، يبدو من الواضح أنه من غير المحتمل أن يخلق المدينة التكنولوجية الفاضلة ومن غير المرجح أن يتسبب في محو البشرية. النتيجة الأكثر احتمالا هي مكان ما في المنتصف ــ مستقبل يتشكل من خلال الطوارئ، والحلول الوسط، وعلى جانب عظيم من الأهمية، القرارات التي نتخذها الآن حول كيفية تقييد وتوجيه تطور الذكاء الاصطناعي.

باعتبارها الرائدة عالميا في مجال الذكاء الاصطناعي، تضطلع الولايات المتحدة بدور مهم بشكل خاص في تشكيل هذا المستقبل. لكن خطة عمل الذكاء الاصطناعي التي أعلن عنها الرئيس الأمريكي دونالد ترامب مؤخرا بددت الآمال في تعزيز الإشراف الفيدرالي، فاحتضنت بدلا من ذلك نهجا داعما للنمو في تطوير التكنولوجيا. وهذا يجعل التركيز من جانب حكومات الولايات، والمستثمرين، والجمهور الأمريكي على أداة مُـساءلة أقل إخضاعا للمناقشة، ألا وهي حوكمة الشركات ضرورة أشد إلحاحا. وكما توثق الصحفية كارين هاو في كتابها «إمبراطورية الذكاء الاصطناعي»، فإن الشركات الرائدة في هذا المجال منخرطة بالفعل في المراقبة الجماعية، وهي تستغل عمالها، وتتسبب في تفاقم تغير المناخ. من عجيب المفارقات هنا أن كثيرا منها شركات منفعة عامة (PBCs)، وهي بنية حوكمة يُزعم أنها مصممة لتجنب مثل هذه الانتهاكات وحماية البشرية. ولكن من الواضح أنها لا تعمل على النحو المنشود.

كانت هيكلة شركات الذكاء الاصطناعي على أنها شركات منفعة عامة شكلا ناجحا للغاية من أشكال الغسيل الأخلاقي. فبإرسال إشارات الفضيلة إلى الهيئات التنظيمية وعامة الناس، تخلق هذه الشركات قشرة من المساءلة تسمح لها بتجنب المزيد من الرقابة الجهازية على ممارساتها اليومية، والتي تظل مبهمة وربما ضارة. على سبيل المثال، تُـعَـد xAI التي يملكها إيلون ماسك شركة منفعة عامة تتمثل مهمتها المعلنة في «فهم الكون». لكن تصرفات الشركة ــ من بناء كمبيوتر خارق مُـلَـوِّث في السر بالقرب من حي تقطنه أغلبية من السود في ممفيس بولاية تينيسي، إلى إنشاء روبوت محادثة يشيد بهتلر ــ تُظهر قدرا مزعجا بشدة من عدم الاكتراث بالشفافية، والرقابة الأخلاقية، والمجتمعات المتضررة.

تُعد شركات المنفعة العامة أداة واعدة لتمكين الشركات من خدمة الصالح العام مع السعي إلى تحقيق الربح في الوقت ذاته. لكن هذا النموذج، في هيئته الحالية ــ خاصة في ظل قانون ولاية ديلاوير، الولاية التي تتخذها معظم الشركات العامة الأمريكية مقرا لها ــ مليء بالثغرات وأدوات الإنفاذ الضعيفة، وهو بالتالي عاجز عن توفير الحواجز اللازمة لحماية تطوير الذكاء الاصطناعي. لمنع النتائج الضارة، وتحسين الرقابة، وضمان حرص الشركات على دمج المصلحة العامة في مبادئها التشغيلية، يتعين على المشرعين على مستوى الولايات، والمستثمرين، وعامة الناس المطالبة بإعادة صياغة شركات المنفعة العامة وتعزيز قدراتها. من غير الممكن تقييم الشركات أو مساءلتها في غياب أهداف واضحة، ومحددة زمنيا، وقابلة للقياس الكمي. لنتأمل هنا كيف تعتمد شركات المنفعة العامة في قطاع الذكاء الاصطناعي على بيانات منافع شاملة وغير محددة يُزعَم أنها توجه العمليات. تعلن شركة OpenAI أن هدفها هو «ضمان أن يعود الذكاء الاصطناعي العام بالفضل على البشرية جمعاء»، بينما تهدف شركة Anthropic إلى «تحقيق أعظم قدر من النتائج الإيجابية لصالح البشرية في الأمد البعيد». المقصود من هذه الطموحات النبيلة الإلهام، لكن غموضها من الممكن أن يستخدم لتبرير أي مسار عمل تقريبا ــ بما في ذلك مسارات تعرض الصالح العام للخطر. لكن قانون ولاية ديلاوير لا يُـلزِم الشركات بتفعيل منفعتها العامة من خلال معايير قابلة للقياس أو تقييمات مستقلة. ورغم أنها تطالب بتقديم تقارير كل سنتين حول أداء المنفعة، فإنها لا تلزم الشركات بإعلان النتائج. بوسع الشركات أن تفي بالتزاماتها ــ أو تهملها ــ خلف الأبواب المغلقة، دون أن يدري عامة الناس شيئا. أما عن الإنفاذ، فبوسع المساهمين نظريا رفع دعوى قضائية إذا اعتقدوا أن مجلس الإدارة فشل في دعم مهمة الشركة في مجال المنفعة العامة. لكن هذا سبيل انتصاف أجوف، لأن الأضرار الناجمة عن الذكاء الاصطناعي تكون منتشرة، وطويلة الأجل، وخارجة عن إرادة المساهمين عادة. ولا يملك أصحاب المصلحة المتضررون ــ مثل المجتمعات المهمشة والمقاولين الذين يتقاضون أجورا زهيدة ــ أي سبل عملية للطعن في المحاكم. وللاضطلاع بدور حقيقي في حوكمة الذكاء الاصطناعي، يجب أن يكون نموذج «شركات المنفعة العامة» أكثر من مجرد درع للسمعة. وهذا يعني تغيير كيفية تعريف «المنفعة العامة»، وحوكمتها، وقياسها، وحمايتها بمرور الوقت. ونظرا لغياب الرقابة الفيدرالية، يجب أن يجري إصلاح هذا الهيكل على مستوى الولايات. يجب إجبار شركات المنفعة العامة على الالتزام بأهداف واضحة، وقابلة للقياس، ومحددة زمنيا، ومكتوبة في وثائقها الإدارية، ومدعومة بسياسات داخلية، ومربوطة بمراجعات الأداء والمكافآت والتقدم الوظيفي. بالنسبة لأي شركة عاملة في مجال الذكاء الاصطناعي، من الممكن أن تشمل هذه الأهداف ضمان سلامة نماذج المؤسسات، والحد من التحيز في مخرجات النماذج، وتقليل البصمة الكربونية الناجمة عن دورات التدريب والنشر، وتنفيذ ممارسات العمل العادلة، وتدريب المهندسين ومديري المنتجات على حقوق الإنسان والأخلاقيات والتصميم التشاركي. الأهداف المحددة بوضوح، وليس التطلعات الغامضة، هي التي ستساعد الشركات على بناء الأساس للمواءمة الداخلية الجديرة بالثقة والمساءلة الخارجية. يجب أيضا إعادة تصور مجالس الإدارة وعملية الإشراف. ينبغي لمجالس الإدارة أن تضم مديرين ذوي خبرة يمكن التحقق منها في أخلاقيات الذكاء الاصطناعي، والسلامة، والأثر الاجتماعي، والاستدامة. يجب أن يكون لكل شركة مسؤول أخلاقي رئيسي يتمتع بتفويض واضح، وسلطة مستقلة، والقدرة على الوصول المباشر إلى مجلس الإدارة. ينبغي لهؤلاء المسؤولين أن يشرفوا على عمليات المراجعة الأخلاقية وأن يُمنحوا سلطة وقف أو إعادة تشكيل خطط المنتجات عند الضرورة. وأخيرا، يجب أن تكون شركات الذكاء الاصطناعي المهيكلة كمؤسسات منفعة عامة مُلـزَمة بنشر تقارير سنوية مفصلة تتضمن بيانات كاملة ومصنفة تتعلق بالسلامة والأمن، والتحيز والإنصاف، والأثر الاجتماعي والبيئي، وحوكمة البيانات. وينبغي لعمليات تدقيق مستقلة ــ يديرها خبراء في الذكاء الاصطناعي، والأخلاقيات، والعلوم البيئية، وحقوق العمال ــ أن تعكف على تقييم صحة هذه البيانات، بالإضافة إلى ممارسات الحوكمة في الشركة وتواؤمها في عموم الأمر مع أهداف المنفعة العامة.

أكدت خطة عمل ترامب للذكاء الاصطناعي على عدم رغبة إدارته في تنظيم هذا القطاع السريع الحركة. ولكن حتى في غياب الإشراف الفيدرالي، بوسع المشرعين على مستوى الولايات، والمستثمرين، وعامة الناس تعزيز حوكمة إدارة الشركات للذكاء الاصطناعي بممارسة الضغوط من أجل إصلاح نموذج شركات المنفعة العامة. يبدو أن عددا متزايدا من قادة التكنولوجيا يعتقدون أن الأخلاقيات أمر اختياري. ويجب على الأمريكيين أن يثبتوا أنهم على خطأ، وإلا فإنهم يتركون التضليل، والتفاوت بين الناس، وإساءة استخدام العمالة، وقوة الشركات غير الخاضعة للرقابة تشكل مستقبل الذكاء الاصطناعي.

كريستوفر ماركيز أستاذ إدارة الأعمال في جامعة كامبريدج ومؤلف كتاب «المستغلون: كيف تقوم الشركات بخصخصة الأرباح وتأميم التكاليف»

خدمة «بروجيكت سنديكيت»

مقالات مشابهة

  • المصري الديمقراطي: التظاهر ضد مصر تزييف للحقائق وخدمة مجانية للاحتلال
  • عودة الهذالين.. صوت النضال الذي أسكتته إسرائيل
  • ما مصدر المعلومات الذي يثق به ترامب وبه غير موقفه من تجويع غزة؟
  • شعبة الاقتصاد الرقمي وإيتيدا تطلقان دورة حول تطبيقات الذكاء الاصطناعي
  • هل الخيار المتطرف الذي تبحثه إسرائيل في غزة قابل للتنفيذ؟
  • احتيال شركات الذكاء الاصطناعي يجب أن يتوقف
  • السباق الاستخباراتي على الذكاء الاصطناعي
  • معضلة الذكاء الاصطناعي والمؤلف العلمي
  • نشطاء في غزة يحذرون من “تزييف المعاناة” عبر توزيع فواكه: “الناس بحاجة إلى خبز لا مانجا”
  • هواوي كلاود تقود التحول الرقمي في شمال افريقيا عبر حلول الذكاء الاصطناعي الشامل