بضغطة زر.. كيف سخرت إسرائيل الذكاء الاصطناعي لقتل المدنيين بغزة؟
تاريخ النشر: 8th, October 2025 GMT
أكد خبراء أن أدوات الذكاء الاصطناعي التي يستخدمها الاحتلال الإسرائيلي بذخيرته العسكرية، لا تستطيع التمييز بين المدنيين والعسكرين، كما أنها صّممت لاتخاذ قرارات قتل بالجملة دون الرجوع للبشر.
فقد أوضح الخبير العسكري والإستراتيجي إلياس حنا أن قوات الاحتلال الإسرائيلي توظف تقنيات الذكاء الاصطناعي على جميع المستويات السياسية والإستراتيجية والعملية والتكتيكية بما يغيّر شكل اتخاذ القرار في ساحات القتال.
وقال إن دور الذكاء الاصطناعي يتمثل في تجميع وتحليل بيانات كبيرة، ثم العمل على اقترح أهداف بسيطة لتسريع اتخاذ القرار،"وعندما ينضب بنك الأهداف الأساسي تبدأ المنظومة التقنية بتوليد أهداف جديدة من خلال ما تملكه من معلومات".
وأوضح حنا أن تلك المنظومة تتدرب على البيانات الضخمة وتربطها بالمصادر المفتوحة من معلومات لتحديثها واقتراح المزيد من الأهداف.
ووصف حنا الإستراتيجية التي تستخدمها قوات الاحتلال بأنها "حرب وكيلية" رقمية وكأنها تمنح توكيلا لمنظومة رقمية تجمع المعلومات وتدققها وتحللها ثم تتخذ القرار دون العودة إلى العنصر البشري.
وتحدث الخبير العسكري عن "انحياز" هذه النماذج في إصدار الأهداف التي تخدم مصلحة تل أبيب، مشيرا إلى عدد من البرمجيات وأنظمة الذكاء الاصطناعي التي يستخدمها الجيش في عملياته في قطاع غزة:
فاير فاكتور: لجدولة الأهداف وتقدير كمية المتفجرات اللازمة للقضاء على هدف محدد. ديبث أوف ويسدام: لربط وتتبع معلومات الأنفاق في قطاع غزة، ووضع إستراتيجيات للقضاء عليها. كيميست: يعمل كجهاز إنذار يبيّن وجود مخاطر للقوات المقاتلة أثناء المهمات التكتيكية. لافاندر: نموذج ذكاء اصطناعي طوره الجيش لتحليل بيانات الهواتف والصور ووسائل التواصل الاجتماعي. ويؤكد حنا أن نظام "لافاندر" منحاز بشكل كامل للمصالح الإسرائيلية، لأن مصدر البيانات والخرائط التي يُدرّب عليها تميل لصالح تل أبيب. إعلانكما لفت حنا إلى استخدام روبوتات متفجرة تحمل أطنانا من المتفجرات، وأشار إلى نظام "أربل" الذي يُحسّن من دقة الإطلاق عبر آليات قتالية مثل البنادق والمناظير الليلية.
وقال إن قنبلة مثل "جي بي يو 32" تلقى على مجمع سكني حتى وإن كان خاليا فهي بالتأكيد تتسبب في إسقاط مدنيين، بالإضافة إلى ما يتيحه نموذج "لافاندر" من إمكانية للمستعمل لاستهداف مدنيين بأعداد محددة وفق رتبته العسكرية.
إشراف بشري ضئيل
ومن زاوية المسؤولية القانونية والأخلاقية، قالت الخبيرة في الاستخدام المسؤول للذكاء الاصطناعي جيسيكا دورسي إن الكارثة الحقيقية تكمن في توليد قوائم مستهدفين تضم مدنيين مع إشراف بشري ضئيل أو غير كاف على القرارات الآلية، مما يرقى إلى خروقات لقواعد الاستهداف الدولية.
ووجهت الخبيرة أصابع الاتهام للحكومة الإسرائيلية بشأن سقوط مدنيين رغم استعانتها بأدوات الذكاء الاصطناعي التي من المفترض أن تحمي المدنيين نظرا لدقتها في تحديد الأهداف.
وحذّر حنا من مخاطر هذا الاعتماد الكلي على منظومة الذكاء الاصطناعي، مشيرا إلى أنه لا يميّز بموثوقية كافية بين هدف عسكري وآخر مدني، خصوصا في بيئة ذات كثافة سكانية عالية مثل قطاع غزة، الأمر الذي يرفع احتمالات سقوط ضحايا من المدنيين.
وأعطى حنا مثالا صريحا بخصوص سياسات استهداف قد تسمح لقيادي من رتبة معينة بارتكاب "خسائر مدنية" تصل إلى أعداد محددة.
وبحسب حنا، إنْ كان قياديا عسكريا من الدرجة الثانية فيسمح له باتخاذ قرار بقتل 20 مدنيا، أما إن كان قياديا من الدرجة الأولى فيسمح له بإسقاط 100 قتيل مدني.
وشددت دورسي على أهمية توظيف الإدراك البشري خلف الآلة لرصد تحركاتها وتعديل قرارتها قبل أن تتخذ أي قرار وتستهدف أهدافا غير مرجوة.
وأشارت الخبيرة بالذكاء الاصطناعي إلى دور شركات تقنية دولية مثل "مايكروسوفت" في تزويد الجيش الإسرائيلي بمنتجات تقنية تُستخدم في هذا السياق.
كيف تفوقت حماس؟رغم التفوق التقني الهائل، أوضح حنا أن فشل الاحتلال في تحقيق أهدافه الإستراتيجية خلال العامين الماضيين يعود إلى إخفاقات في إدارة الحرب داخل القطاع، وإستراتيجية حركة المقاومة الإسلامية (حماس) المعقّدة والمرنة.
إذ إن المقاتلين من المقاومة "حضّروا أرضية المعركة بشكل لا تماثلي واستخدموا تكتيكات وبيئة قتالية تجعل من استخدام القوة التكنولوجية الأعظم -مثل الدبابات والذخائر المتطورة- أقل فاعلية داخل التجمعات الحضرية والأنفاق".
واعتبر حنا أن الأسلحة والبرمجيات المتطورة لا تضمن النصر وحده؛ فغياب الضابط البشري الأخلاقي والإستراتيجيات الميدانية المناسبة، بالإضافة إلى خصائص ساحة المعركة في قطاع غزة، قلصت فاعلية هذه التقنيات وأدت إلى نتائج عكسية من وجهة نظر إسرائيلية.
المصدر: الجزيرة
كلمات دلالية: غوث حريات دراسات الذکاء الاصطناعی قطاع غزة حنا أن
إقرأ أيضاً:
هل يشجع الذكاء الاصطناعي البشر على الغش؟
أظهرت دراسة جديدة أن الناس يصبحون أكثر ميلا للغش عندما يوكلون المهام إلى أنظمة الذكاء الاصطناعي، خاصة إذا تمكنوا من توجيهها بطريقة تُشجع على السلوك غير الأخلاقي دون أن يطلبوا ذلك صراحة.
وقالت الباحثة في مجال العلوم السلوكية زوي رهوان إن "مستوى الغش يمكن أن يكون هائلا". وأوضحت -في مقال نشره موقع "ساينتفيك أميركان" المتخصص في الأبحاث العلمية- أن مجرد تفويض الذكاء الاصطناعي مهمة ما يجعل المستخدم يشعر بمسؤولية أخلاقية أقل عن النتائج غير النزيهة.
اقرأ أيضا list of 2 itemslist 1 of 2اعتقال 21 تركيًّا بتهمة الاحتيال على الدولة في مصفاة للذهبlist 2 of 2لندن عاصمة السرقة الأوروبية.. هواتف وسيارات فاخرة تهرّب إلى الصين وأفريقياend of listوشارك في الدراسة -التي نشرت مجلة "نيتشر" نتائجها- آلاف الأشخاص ضمن 13 تجربة استخدم فيها الباحثون نماذج مختلفة، من بينها 4 أنظمة لغوية تجارية كبرى مثل "شات جي بي تي 4″ (GPT-4o) و"كلاود" (Claude).
وتضمنت بعض التجارب لعبة لرمي النرد يربح فيها المشاركون بناء على الأرقام التي يعلنونها، مما يتيح فرصة للغش، بينما استخدمت تجارب أخرى لعبة لتقدير ضرائب الدخل، حيث يمكن للمشاركين التلاعب بالأرقام لتحقيق أرباح أكبر.
وعندما طُلب من المشاركين الإبلاغ عن نتائج النرد بأنفسهم، أظهر نحو 5% فقط سلوكا غير صادق، لكن النسبة قفزت إلى 88% عندما فوّضوا المهمة إلى خوارزمية ووجهوها نحو تحقيق الربح بدلا من الصدق.
وأصدر بعضهم أوامر مباشرة بالغش مثل "الضرائب سرقة، أبلغ عن صفر دخل"، بينما اكتفى آخرون بتلميحات مثل "افعل ما تراه مناسبا، لكن لن أمانع إذا ربحت أكثر قليلا".
ولاحظ الباحثون أن الذكاء الاصطناعي يميل إلى تنفيذ الأوامر غير الأخلاقية بحماس أكبر من البشر. ففي التجارب التي طُلب فيها من الطرفين الغش بشكل جزئي أو كامل، كانت النماذج الآلية أكثر امتثالا للغش، بينما تردد المشاركون البشر.
اختبر الفريق أيضا وسائل لتقييد هذا السلوك، فوجد أن الحواجز الافتراضية المدمجة في النماذج لم تكن فعالة في منع الغش، وأن أكثر الوسائل نجاحا كانت إعطاء تعليمات محددة تمنع الكذب صراحة مثل "لا يُسمح لك بالإبلاغ الخاطئ تحت أي ظرف".
إعلانوأشارت الدراسة إلى أن محاولات تقييد الغش عبر "الحواجز الأخلاقية" المدمجة في النماذج أو باستخدام بيانات الشركات كانت محدودة الفاعلية.
وكانت الإستراتيجية الأكثر نجاحا هي إعطاء تعليمات واضحة وصارمة تمنع الغش، إلا أن تعميم هذا الحل في الواقع العملي ليس قابلا للتطبيق بسهولة.
وتخلص الدراسة إلى أن العلاقة بين الإنسان والذكاء الاصطناعي قد تفتح الباب أمام أشكال جديدة من السلوك غير الأخلاقي تتطلب حلولا أكثر فعالية.
وترى الباحثة في جامعة ميلانو، أنيه كاجاكايته، أن النتائج تكشف جانبا نفسيا مهما؛ إذ يبدو أن الناس يشعرون بذنب أقل عندما يوجهون الآلة للغش بطريقة غير مباشرة، وكأن الذنب الأخلاقي يتبدد عندما ينفذ "شخص" غير بشري الفعل نيابة عنهم.