“نيويورك تايمز” تكشف تقنية إسرائيلية في حرب غزة تثير مخاوف من انتشارها عالميا.. تفاصيل تجارب مرعبة
تاريخ النشر: 26th, April 2025 GMT
غزة – كشفت صحيفة “نيويورك تايمز” الأمريكية عن لجوء إسرائيل إلى اختبار واسع النطاق لتقنيات الذكاء الاصطناعي المتطورة في قطاع غزة.
وذكرت في تحقيق موسع أن تقنيات الذكاء الاصطناعي التي تستخدمها إسرائيل في حرب الإبادة على غزة تشمل أنظمة لتحديد المواقع، والتعرف على الوجوه، وتحليل المحتوى العربي، وذلك خلال الحرب التي اندلعت أواخر عام 2023.
وتقول إن هذه الاختبارات شملت استخدام أدوات لم تجرب سابقا في ساحات القتال، ما أثار جدلا أخلاقيا واسعا في العالم.
ووفقا لثلاثة مسؤولين إسرائيليين وأمريكيين مطلعين، كانت نقطة البداية هي محاولة اغتيال القيادي في حركة حماس إبراهيم بياري، حيث فشلت الاستخبارات الإسرائيلية في تعقبه داخل شبكة أنفاق غزة. عندها، لجأت إسرائيل إلى أداة صوتية مدعومة بالذكاء الاصطناعي طورها مهندسو الوحدة 8200، سمحت بتحديد موقعه التقريبي استنادا إلى تحليلات صوتية لمكالماته.
وفي 31 أكتوبر، نفذت غارة جوية أدت إلى مقتله، لكن الهجوم أسفر أيضا عن مقتل أكثر من 125 مدنيا، بحسب منظمة “إيروورز” البريطانية المتخصصة برصد ضحايا الصراعات.
وخلال الأشهر التالية، واصلت إسرائيل تسريع دمج الذكاء الاصطناعي في عملياتها العسكرية. من بين التقنيات التي طورتها برامج التعرف على الوجوه المتضررة أو غير الواضحة، وأداة لاختيار أهداف الغارات الجوية تلقائيا، ونموذج لغوي ضخم باللغة العربية يُشغّل روبوت دردشة قادرًا على تحليل المنشورات والمراسلات الإلكترونية بمختلف اللهجات. كما طورت نظام مراقبة بصري متطور يستخدم على الحواجز بين شمال وجنوب غزة لمسح وجوه الفلسطينيين.
وأكد مسؤولون أن العديد من هذه الابتكارات تم تطويرها في مركز يعرف باسم “الاستوديو”، وهو بيئة مشتركة تجمع خبراء الوحدة 8200 بجنود احتياط يعملون في شركات تقنية كبرى مثل غوغل، مايكروسوفت، وميتا.
مخاوف أخلاقية
رغم النجاح التقني، أثارت التجارب مخاوف أخلاقية جدية. وقال ضباط إسرائيليون إن أدوات الذكاء الاصطناعي أخطأت أحيانا في تحديد الأهداف، ما أدى إلى اعتقالات خاطئة وضحايا مدنيين. فيما حذرت هاداس لوربر، الخبيرة في الذكاء الاصطناعي والمديرة السابقة في مجلس الأمن القومي الإسرائيلي، من مخاطر هذه التقنيات قائلة: “لقد غيرت الذكاء الاصطناعي قواعد اللعبة في الميدان، لكن دون ضوابط صارمة قد يؤدي إلى عواقب وخيمة”.
وفي تعليقه، أكد أفيف شابيرا، مؤسس شركة XTEND المتخصصة بالطائرات المسيرة، أن خوارزميات الذكاء الاصطناعي باتت قادرة على تتبع الأشخاص والأهداف المتحركة بدقة عالية، قائلا إن “قدرات التوجيه تطورت من الاعتماد على صورة الهدف إلى التعرف على الكيان نفسه”. لكنه شدد على ضرورة الموازنة بين الفاعلية والاعتبارات الأخلاقية.
من أبرز المشاريع كان تطوير نموذج لغوي ضخم يحلل اللهجات العربية المختلفة لفهم المزاج العام في العالم العربي. وبحسب ضباط في المخابرات الإسرائيلية، ساعدت هذه التقنية في تحليل ردود الأفعال الشعبية بعد اغتيال زعيم حزب الله حسن نصر الله في سبتمبر 2024، من خلال تمييز التعابير المحلية في لبنان وتقييم احتمالات الرد.
لكن هذه التكنولوجيا لم تكن خالية من العيوب، إذ أخفق الروبوت أحيانا في فهم المصطلحات العامية أو أعاد صورا غير دقيقة مثل “أنابيب” بدلا من “بنادق”. ومع ذلك، وصفها الضباط بأنها وفرت وقتا ثمينا وسرعت التحليل مقارنة بالطرق التقليدية.
ورفضت كل من ميتا ومايكروسوفت التعليق على التقارير. أما غوغل فأوضحت أن موظفيها الذين يخدمون كجنود احتياط في بلدانهم “لا يؤدون مهام مرتبطة بالشركة خلال خدمتهم العسكرية”.
من جهتها، امتنعت الناطقة باسم الجيش الإسرائيلي عن التعليق على تفاصيل البرامج “نظرا لطبيعتها السرية”، مشيرة إلى أن الجيش يلتزم بالاستخدام “القانوني والمسؤول” لتكنولوجيا البيانات، وأنه يجري تحقيقا في غارة اغتيال البياري دون الكشف عن موعد انتهاءه.
وتقول صحيفة “نيويورك تايمز” أن هذه ليست المرة الأولى التي تستخدم فيها إسرائيل الصراع كحقل تجارب لتقنياتها؛ إذ سبق أن طورت أنظمة مثل القبة الحديدية وطائرات مسيرة هجومية خلال الحروب السابقة في غزة ولبنان. لكن مسؤولين غربيين شددوا على أن حجم الاستخدام المتسارع للذكاء الاصطناعي في حرب 2023-2024 لا سابق له.
وحذر مسؤولون أمريكيون وأوروبيون من أن ما يجري في غزة قد يشكل نموذجا أوليا لحروب المستقبل، التي تعتمد على خوارزميات يمكن أن تخطئ أو تساء إدارتها، ما يضع حياة المدنيين وشرعية العمليات العسكرية على المحك.
المصدر: نيويورك تايمز
المصدر: صحيفة المرصد الليبية
كلمات دلالية: الذکاء الاصطناعی نیویورک تایمز
إقرأ أيضاً:
ربنا يستر.. خالد الجندي: الذكاء الاصطناعي بيجاوب بفهلوة في المسائل الدينية
حذّر الشيخ خالد الجندي، عضو المجلس الأعلى للشئون الإسلامية، من الاعتماد على الذكاء الاصطناعي في المسائل الدينية أو طلب الفتوى، مؤكدًا أن هذه التقنية رغم تقدمها الكبير، لا تزال تفتقر للدقة والضبط في التعامل مع النصوص الشرعية.
وقال الشيخ خالد الجندي، خلال تصريحات تلفزيونية، اليوم الثلاثاء، "حضراتكم عشان تبقوا عارفين، إحنا عملنا اختبار للذكاء الاصطناعي.. أنا شخصيًا كنت بدي له أسئلة دينية دقيقة عشان أشوف مدى تمكنه، وللأسف لقيته بيرد بالفهلَوة!".
الشيخ خالد الجندي: قاعدة الضرر يزال مفتاح استقرار المجتمع
هل تفسير الأحلام علم شرعي؟.. الشيخ خالد الجندي يحسم الجدل
خالد الجندي: من يُحلّل الخمر أو الحشيش فقد غاب عنه المخ الصحيح .. فيديو
خالد الجندي: مشاهد يومك قد تقودك إلى الجنة أو النار.. وفرغ قلبك لله وقت العبادة
وسرد الشيخ خالد الجندي واقعة واقعية خلال اختباره للذكاء الاصطناعي، قال فيها: "سألته: هاتلي فعل أمر أوله ياء من القرآن الكريم، فقال لي: مفيش، فعل الأمر لا يمكن أن يبدأ بحرف الياء! فقلت له: ده كلام غلط. عندك في سورة طه: يسِّر لي أمري، و(يسِّر) فعل أمر أوله ياء، وبعدها اعترف إنه أخطأ وقال: فعلاً، دي أول مرة آخد بالي!".
وتابع الشيخ خالد الجندي "قلت له ربنا يستر على الباقي!"، مشددًا على أن مثل هذه الأخطاء تُظهر خطورة الاعتماد على الذكاء الاصطناعي في الإفتاء أو الاستدلال بالنصوص الشرعية، لأن الأمر يتطلب فقيهًا مدرّبًا، ملمًا بالمقاصد الشرعية، ومراعيًا لأحوال الناس وظروفهم.
الشيخ خالد الجندي: الذكاء الاصطناعي مفيد في المعلومات العامة فقطوأكد الشيخ خالد الجندي على أهمية الوعي العام بهذه المسألة، قائلًا: "الذكاء الاصطناعي مفيد في المعلومات العامة، لكن في الدين؟ لأ.. لازم مفتي راشد، دارس، عنده أمانة علمية وإنسانية".
قال الشيخ خالد الجندي، عضو المجلس الأعلى للشئون الإسلامية، إن الإفتاء ليس مجرد رأي يُقال، بل هو علم متراكم عبر الأجيال منذ عهد النبي صلى الله عليه وسلم، يدرسه المتخصصون بدقة وفهم واسع للقرآن والسنة والتفسير والحديث واللغة، إضافة إلى إدراك أحوال المستفتي والمفتي والفتوى ذاتها.
وأوضح الشيخ خالد الجندي، خلال تصريحات تلفزيونية، اليوم الثلاثاء، أن المفتي حين يتلقى السؤال، يعرضه أولًا على خمس قواعد أساسية تُعرف بـ"المقاصد الشرعية"، وهي: حفظ الدين، وحفظ العقل، وحفظ العرض، وحفظ المال، وحفظ النفس، مؤكدًا أن هذه المقاصد بمثابة دستور لا يجوز المساس بها أو الإضرار بها.
وتابع الشيخ خالد الجندي "بعد النظر في المقاصد، ينتقل المفتي إلى تقييم المسألة من خلال ما يُعرف بـ"المصالح"، وهي ثلاثة أنواع: مصالح ضرورية، وحاجية، وتحسينية، وتختلف حسب ظروف السائل".
وأشار الشيخ خالد الجندي إلى أن اختلاف الأشخاص يؤدي إلى اختلاف الحكم، ضاربًا مثالًا بثلاثة سائلين يطلبون قرضًا لأسباب مختلفة: أحدهم لعلاج ابنته المريضة (مصلحة ضرورية)، والثاني لتحديث سيارته (مصلحة تحسينية)، والثالث لشراء شقة أوسع (مصلحة حاجية)، لافتًا إلى أن "الحكم لا يمكن أن يكون واحدًا للجميع".
وأكد الشيخ خالد الجندي على أن المفتي يُجري خمسة عشر تصورًا ذهنيًا في كل فتوى (نتيجة المزج بين المقاصد الخمسة والمصالح الثلاثة)، يتم هذا التقدير في لحظة خاطفة، بفضل التدريب والعلم، تمامًا كما يتخذ الطبيب قراره في جزء من الثانية.