واشنطن بوست: إسرائيل بنت مصنعا للذكاء الاصطناعي وأطلقت له العنان في غزة
تاريخ النشر: 30th, December 2024 GMT
بعد هجوم حركة المقاومة الإسلامية (حماس) يوم 7 أكتوبر/تشرين الأول 2023، أمطرت القوات الإسرائيلية قطاع غزة بالقنابل، مستفيدة من قاعدة بيانات جُمعت بعناية على مر السنين فيها تفاصيل عناوين المنازل والأنفاق والبنية التحتية الحيوية لقطاع غزة، ولكن بعد نفاد بنك الأهداف لجأ الجيش إلى أداة ذكاء اصطناعي معقدة تسمى "هبسورا" أو "الإنجيل" يمكنها أن تولد بسرعة مئات الأهداف الإضافية.
بهذا الملخص صدّرت صحيفة واشنطن بوست تقريرا حصريا بقلم إليزابيث دوسكين، قالت فيه إن إسرائيل، قبل سنوات من حرب غزة، حولت وحدة استخباراتها إلى أرض اختبار للذكاء الاصطناعي، وقد سمح استخدامه بإعادة تعبئة بنك أهداف الجيش الإسرائيلي بسرعة لمواصلة حملته دون انقطاع، مما أسهم في تسعير الحرب المستمرة على غزة.
اقرأ أيضا list of 2 itemslist 1 of 2خبراء يكشفون سر استهداف الاحتلال مستشفيات غزةlist 2 of 2تقرير نيويورك تايمز يكشف "تغلغل" الموساد في حزب الله لسنواتend of listوأذاع الجيش الإسرائيلي وجود هذه البرامج التي تشكل ما يعتبره بعض الخبراء المبادرة العسكرية الأكثر تقدما في مجال الذكاء الاصطناعي، وقد سعت واشنطن بوست في تحقيقها هذا للكشف عن تفاصيل لم يتم الإبلاغ عنها من قبل عن العمليات الداخلية لبرنامج التعلم الآلي، إلى جانب التاريخ السري الذي دام عقدا من الزمان لتطويره.
حصيلة القتلىوكشف التحقيق أيضا عن نقاش داخل أعلى مستويات الجيش بدأ قبل سنوات من هجوم حماس، حول جودة المعلومات الاستخباراتية التي يجمعها الذكاء الاصطناعي، ومدى تدقيق توصيات التكنولوجيا، وهل التركيز على الذكاء الاصطناعي أضعف قدرات الاستخبارات الإسرائيلية.
إعلانوخلص بعض المنتقدين إلى أن برنامج الذكاء الاصطناعي كان قوة وراء الكواليس تعمل على رفع حصيلة القتلى في غزة، وقد أودت حتى الآن بحياة أكثر من 45 ألف شخص، أغلبهم من النساء والأطفال.
وبالإضافة إلى وثائق حصلت عليها، ذكرت الصحيفة أن تقريرها يستند أيضا إلى مقابلات مع أكثر من 12 شخصا على دراية بالأنظمة، تحدث العديد منهم بشرط عدم الكشف عن هويتهم لمناقشة تفاصيل مواضيع الأمن القومي السرية للغاية.
وقال ستيفن فيلدشتاين من مؤسسة كارنيغي، وهو باحث في استخدام الذكاء الاصطناعي في الحرب، إن "ما يحدث في غزة مقدمة لتحول أوسع في كيفية خوض الحرب".
وزعم الجيش الإسرائيلي أن الاتهامات التي تقول إن استخدامه للذكاء الاصطناعي يعرض الأرواح للخطر غير صحيحة، وأوضح في بيان أنه لما زادت القدرة على تجميع المعلومات بشكل فعال كانت العملية أكثر دقة، خاصة أن كل ضابط ملزم بالتوقيع على أي توصيات من أنظمة "معالجة البيانات الضخمة" الخاصة به.
ودافع يوسي سارييل رئيس الوحدة 8200 -وهي استخبارات الإشارات التابعة للجيش- عن تطوير برنامج "الإنجيل"، وهو برنامج تعلم آلي مبني على مئات خوارزميات التنبؤ، يسمح للجنود بالاستعلام بسرعة عن كنز هائل من البيانات معروف داخل الجيش باسم "المسبح".
وبمراجعة كميات هائلة من البيانات من الاتصالات التي تم اعتراضها، ولقطات الأقمار الصناعية والشبكات الاجتماعية، تقوم الخوارزميات بإخراج إحداثيات الأنفاق والصواريخ وغيرها من الأهداف العسكرية، وتوضع التوصيات التي تصمد للتدقيق في بنك الأهداف من قبل ضابط كبير.
وتستخدم أداة أخرى للتعلم الآلي تسمى "لافندر" درجة مئوية للتنبؤ بمدى احتمال أن يكون الفلسطيني عضوا في جماعة مسلحة، مما يسمح للجيش الإسرائيلي بتوليد حجم كبير من الأهداف البشرية المحتملة بسرعة، كما أن هناك برامج خوارزمية أخرى تسمح للجنود بالاستعلام عن مجموعات بيانات مختلفة، لم يتم الإبلاغ عنها سابقا.
إعلان مخاوفوأشارت الصحيفة إلى أن العديد من الضباط أعربوا عن مخاوفهم من أن تكنولوجيا التعلم الآلي التي سرّعت اتخاذ القرار أخفت عيوبا أساسية، وبالفعل وجدت مراجعة داخلية أن بعض أنظمة الذكاء الاصطناعي لمعالجة اللغة العربية بها أخطاء، وفشلت في فهم الكلمات والعبارات العامية الرئيسية، وفقا للقائدين العسكريين السابق ذكرهما.
كذلك تتنبأ تكنولوجيا التعلم الآلي في الجيش الإسرائيلي -حسب الصحيفة- بعدد المدنيين الذين قد يتأثرون بالهجمات، وكانت "نسبة الضحايا المدنيين المقبولة لدى الجيش الإسرائيلي في عام 2014 مدنيا واحدا لكل إرهابي رفيع المستوى"، حسب ما قاله تال ميمران المستشار القانوني السابق للجيش الإسرائيلي.
وفي حرب غزة، ارتفع العدد إلى 15 مدنيا لكل عضو منخفض المستوى من حماس و"أعلى بشكل كبير" بالنسبة للأعضاء من المستوى المتوسط والعالي، حسب منظمة حقوق الإنسان الإسرائيلية "كسر الصمت".
ويزعم بعض أنصار استخدام إسرائيل للتكنولوجيا أن نشر الابتكارات مثل الذكاء الاصطناعي بشكل عدواني أمر ضروري لبقاء دولة صغيرة تواجه أعداء مصممين وأقوياء. فقد قال بليز ميشتال، نائب رئيس السياسات في المعهد اليهودي للأمن القومي الأميركي، إن "التفوق التكنولوجي هو ما يحافظ على أمن إسرائيل، فكلما تمكنت من تحديد قدرات العدو بشكل أسرع وإخراجها من ساحة المعركة كانت الحرب أقصر، وستكون الخسائر أقل".
وتحت قيادة سارييل وقادة استخباراتيين آخرين، تمت إعادة هيكلة 8200 للتركيز على المهندسين، وخفض المتخصصين في اللغة العربية، وإزالة العديد من القادة المقاومين للذكاء الاصطناعي، وحل بعض المجموعات التي لا تركز على تكنولوجيا استخراج البيانات، وفقا لثلاثة أشخاص.
وتطرح تهم الإبادة الجماعية التي رفعتها جنوب أفريقيا ضد إسرائيل أمام محكمة العدل الدولية إشكالا يقول: هل القرارات الحاسمة بشأن قصف الأهداف في غزة تتخذ بواسطة برامج؟ وهو تحقيق يمكن أن يسرع من النقاش العالمي حول دور تكنولوجيا الذكاء الاصطناعي في الحرب.
إعلانوأعلن سارييل أنه يخطط للتنحي عن منصبه في ظل تزايد الاستجوابات بشأن الإخفاقات الاستخباراتية التي أدت إلى هجوم السابع من أكتوبر/تشرين الأول، وقال اثنان من كبار القادة السابقين إنهما يعتقدان أن التركيز الشديد على الذكاء الاصطناعي كان سببا مهما في وقوع إسرائيل على حين غرة في ذلك اليوم.
ووصف أحد القادة العسكريين السابقين -متحدثا بشرط عدم الكشف عن هويته- موضوعات الأمن القومي قائلا "كان هذا مصنعا للذكاء الاصطناعي، لقد تم استبدال الرجل بالآلة".
عنق الزجاجةوقبل عامين من توليه منصب قائد الاستخبارات، أمضى سارييل عاما إجازة في جامعة الدفاع الوطني بواشنطن، وقد وضع كتابا عن رؤية لغرس الأتمتة في مؤسسات الأمن القومي، بعنوان "فريق الإنسان والآلة: كيفية خلق التآزر بين الذكاء البشري والاصطناعي".
ووصف في الكتاب كيف يمكن التنبؤ بأفعال من يصفهم بالإرهابيين المنفردين مسبقا من خلال إطلاق العنان للخوارزميات لتحليل مواقع الهاتف ومنشورات وسائل التواصل الاجتماعي، ولقطات الطائرات المسيرة والاتصالات الخاصة التي تم اعتراضها.
وفي كتابه، زعم سارييل أن الذكاء الاصطناعي سيكون مفيدا بشكل خاص في زمن الحرب، عندما يمكنه تسريع تشكيل الهدف وفتح "عنق الزجاجة البشري" الذي أبطأ كل شيء.
ومع انتقاله إلى القيادة العليا، سارع سارييل إلى تسريع جهود استخراج البيانات، ودافع عن إعادة تنظيم واسعة النطاق قسمت جهود الاستخبارات إلى ما أشار إليه القادة باسم "مصانع الذكاء الاصطناعي" الموجودة في "مركز الأهداف" الذي أنشئ حديثا في قاعدة نيفاتيم الجوية في جنوب إسرائيل، وصممت كل فرقة مئات من الخوارزميات وتقنيات التعلم الآلي ووسائل تبادل التنبؤات البرمجية عبر سلسلة القيادة الاستخباراتية.
وكان بعض قادة القسم قلقين بشأن دقة هذه الخوارزميات، وكشفت إحدى عمليات التدقيق على تقنية معالجة اللغة أن التنبؤ بالبرمجيات لم يكن دقيقا دقة البشر، كما كان آخرون قلقين من إعطاء تنبؤات البرنامج وزنا كبيرا.
إعلانوقال الصحفي الإسرائيلي بن كاسبيت الذي أجرى مقابلات مع كل قائد في وحدة 8200 من أجل كتاب يعدّه في الموضوع إن "الخلاصة هي أنه لا يمكنك استبدال الرجل الذي يصرخ: اسمع هذا خطير، بكل تقنيات الذكاء الاصطناعي المتقدمة في العالم. كان هذا هو الغطرسة التي أصابت الوحدة بأكملها".
وفي يونيو/حزيران 2021، أتيحت لإسرائيل أول فرصة لإطلاق العنان لبنك الأهداف الجديد الذي يعمل بالخوارزمية، مع اندلاع حرب استمرت 11 يوما على غزة، واستغل كبار القادة هذه اللحظة كفرصة ترويجية لمناقشة ثورة الذكاء الاصطناعي الجارية في نيفاتيم، وداخل مقر 8200 شمال تل أبيب مباشرة، وقال ميشتال إن كل ما أراد كبار القادة "الحديث عنه هو أول حرب ذكاء اصطناعي في العالم".
مصنع أهدافومع أن القانون الإنساني الدولي يطلب من الدول المتحاربة موازنة الميزة العسكرية المتوقعة للهجوم مع الأضرار الجانبية المتوقعة للمدنيين، فإن المعاهدات التي لم تصادق عليها إسرائيل إلا جزئيا صامتة بشأن الذكاء الاصطناعي، وإن قال الجيش الإسرائيلي إن معالجة بيانات الاستخبارات العسكرية "تلبي تعريف القانون الدولي للهدف المشروع".
وباعتراف إسرائيل نفسها، قام الذكاء الاصطناعي بدور كبير في عملية الاستهداف في غزة، وسرعان ما أمطرت إسرائيل المنطقة بالذخائر المصنعة في الولايات المتحدة من طراز مارك 80 التي يبلغ وزنها ألفي رطل.
وفي بيان صحفي صدر يوم 2 نوفمبر/تشرين الثاني 2023، أعلن الجيش الإسرائيلي أن الذكاء الاصطناعي ساعده في قصف 12 ألف هدف في غزة. وعلى أنغام موسيقى درامية وفيديو لمباني تنفجر، أعلن البيان عن "تعاون هو الأول من نوعه"، حيث تتم تغذية المعلومات الاستخباراتية من مصنع الأهداف بالذكاء الاصطناعي في الوقت الفعلي للقوات على الأرض وفي الجو وفي البحر، مما يتيح "تنفيذ مئات الهجمات في لحظة".
إعلانوفي الأيام الأولى من الحرب كان مصنع الأهداف يعمل بكامل طاقته، وكان يعمل به نحو 300 جندي على مدار الساعة، وكان مطلوبا من العديد من المحللين التحقق من الأهداف الموصى بها من برنامجي "الإنجيل" و"لافندر"، إلا أنه مع تسارع الأحداث تم إسقاط القاعدة التي تلزم باعتماد مصدرين من المعلومات الاستخباراتية المستمدة من البشر للتحقق من صحة التنبؤ من "لافندر".
وفي بعض الحالات في فرقة غزة، هاجم جنود مدربون بشكل سيئ على استخدام التكنولوجيا أهدافا بشرية دون التحقق من تنبؤات "لافندر" على الإطلاق، وفقا لأحد الجنود، وشعر بعض الجنود بالقلق من أن الجيش يعتمد فقط على التكنولوجيا دون تأكيد أن الأشخاص ما زالوا أعضاء نشطين في حماس.
ونقلت واشنطن بوست عن هايدي خلف -وهي منتقدة صريحة لإسرائيل وكبيرة علماء الذكاء الاصطناعي في معهد الذكاء الاصطناعي بنيويورك- أن أنظمة الذكاء الاصطناعي تحتوي على أخطاء مدمجة تجعلها غير مناسبة لسياق الحياة والموت مثل الحرب، وأشارت إلى أن صناعة المركبات الذاتية القيادة أمضت العقد الماضي في محاولة الحصول على خوارزميات التعلم الآلي الخاصة بها بدقة 100% دون نجاح يذكر.
المصدر: الجزيرة
كلمات دلالية: حريات ترجمات الذکاء الاصطناعی فی الجیش الإسرائیلی للذکاء الاصطناعی التعلم الآلی واشنطن بوست العدید من فی غزة
إقرأ أيضاً:
احتيال شركات الذكاء الاصطناعي يجب أن يتوقف
مع تقدم الذكاء الاصطناعي وتغلغله في حياتنا على نحو متزايد، يبدو من الواضح أنه من غير المحتمل أن يخلق المدينة التكنولوجية الفاضلة ومن غير المرجح أن يتسبب في محو البشرية. النتيجة الأكثر احتمالا هي مكان ما في المنتصف ــ مستقبل يتشكل من خلال الطوارئ، والحلول الوسط، وعلى جانب عظيم من الأهمية، القرارات التي نتخذها الآن حول كيفية تقييد وتوجيه تطور الذكاء الاصطناعي.
باعتبارها الرائدة عالميا في مجال الذكاء الاصطناعي، تضطلع الولايات المتحدة بدور مهم بشكل خاص في تشكيل هذا المستقبل. لكن خطة عمل الذكاء الاصطناعي التي أعلن عنها الرئيس الأمريكي دونالد ترامب مؤخرا بددت الآمال في تعزيز الإشراف الفيدرالي، فاحتضنت بدلا من ذلك نهجا داعما للنمو في تطوير التكنولوجيا. وهذا يجعل التركيز من جانب حكومات الولايات، والمستثمرين، والجمهور الأمريكي على أداة مُـساءلة أقل إخضاعا للمناقشة، ألا وهي حوكمة الشركات ضرورة أشد إلحاحا. وكما توثق الصحفية كارين هاو في كتابها «إمبراطورية الذكاء الاصطناعي»، فإن الشركات الرائدة في هذا المجال منخرطة بالفعل في المراقبة الجماعية، وهي تستغل عمالها، وتتسبب في تفاقم تغير المناخ. من عجيب المفارقات هنا أن كثيرا منها شركات منفعة عامة (PBCs)، وهي بنية حوكمة يُزعم أنها مصممة لتجنب مثل هذه الانتهاكات وحماية البشرية. ولكن من الواضح أنها لا تعمل على النحو المنشود.
كانت هيكلة شركات الذكاء الاصطناعي على أنها شركات منفعة عامة شكلا ناجحا للغاية من أشكال الغسيل الأخلاقي. فبإرسال إشارات الفضيلة إلى الهيئات التنظيمية وعامة الناس، تخلق هذه الشركات قشرة من المساءلة تسمح لها بتجنب المزيد من الرقابة الجهازية على ممارساتها اليومية، والتي تظل مبهمة وربما ضارة. على سبيل المثال، تُـعَـد xAI التي يملكها إيلون ماسك شركة منفعة عامة تتمثل مهمتها المعلنة في «فهم الكون». لكن تصرفات الشركة ــ من بناء كمبيوتر خارق مُـلَـوِّث في السر بالقرب من حي تقطنه أغلبية من السود في ممفيس بولاية تينيسي، إلى إنشاء روبوت محادثة يشيد بهتلر ــ تُظهر قدرا مزعجا بشدة من عدم الاكتراث بالشفافية، والرقابة الأخلاقية، والمجتمعات المتضررة.
تُعد شركات المنفعة العامة أداة واعدة لتمكين الشركات من خدمة الصالح العام مع السعي إلى تحقيق الربح في الوقت ذاته. لكن هذا النموذج، في هيئته الحالية ــ خاصة في ظل قانون ولاية ديلاوير، الولاية التي تتخذها معظم الشركات العامة الأمريكية مقرا لها ــ مليء بالثغرات وأدوات الإنفاذ الضعيفة، وهو بالتالي عاجز عن توفير الحواجز اللازمة لحماية تطوير الذكاء الاصطناعي. لمنع النتائج الضارة، وتحسين الرقابة، وضمان حرص الشركات على دمج المصلحة العامة في مبادئها التشغيلية، يتعين على المشرعين على مستوى الولايات، والمستثمرين، وعامة الناس المطالبة بإعادة صياغة شركات المنفعة العامة وتعزيز قدراتها. من غير الممكن تقييم الشركات أو مساءلتها في غياب أهداف واضحة، ومحددة زمنيا، وقابلة للقياس الكمي. لنتأمل هنا كيف تعتمد شركات المنفعة العامة في قطاع الذكاء الاصطناعي على بيانات منافع شاملة وغير محددة يُزعَم أنها توجه العمليات. تعلن شركة OpenAI أن هدفها هو «ضمان أن يعود الذكاء الاصطناعي العام بالفضل على البشرية جمعاء»، بينما تهدف شركة Anthropic إلى «تحقيق أعظم قدر من النتائج الإيجابية لصالح البشرية في الأمد البعيد». المقصود من هذه الطموحات النبيلة الإلهام، لكن غموضها من الممكن أن يستخدم لتبرير أي مسار عمل تقريبا ــ بما في ذلك مسارات تعرض الصالح العام للخطر. لكن قانون ولاية ديلاوير لا يُـلزِم الشركات بتفعيل منفعتها العامة من خلال معايير قابلة للقياس أو تقييمات مستقلة. ورغم أنها تطالب بتقديم تقارير كل سنتين حول أداء المنفعة، فإنها لا تلزم الشركات بإعلان النتائج. بوسع الشركات أن تفي بالتزاماتها ــ أو تهملها ــ خلف الأبواب المغلقة، دون أن يدري عامة الناس شيئا. أما عن الإنفاذ، فبوسع المساهمين نظريا رفع دعوى قضائية إذا اعتقدوا أن مجلس الإدارة فشل في دعم مهمة الشركة في مجال المنفعة العامة. لكن هذا سبيل انتصاف أجوف، لأن الأضرار الناجمة عن الذكاء الاصطناعي تكون منتشرة، وطويلة الأجل، وخارجة عن إرادة المساهمين عادة. ولا يملك أصحاب المصلحة المتضررون ــ مثل المجتمعات المهمشة والمقاولين الذين يتقاضون أجورا زهيدة ــ أي سبل عملية للطعن في المحاكم. وللاضطلاع بدور حقيقي في حوكمة الذكاء الاصطناعي، يجب أن يكون نموذج «شركات المنفعة العامة» أكثر من مجرد درع للسمعة. وهذا يعني تغيير كيفية تعريف «المنفعة العامة»، وحوكمتها، وقياسها، وحمايتها بمرور الوقت. ونظرا لغياب الرقابة الفيدرالية، يجب أن يجري إصلاح هذا الهيكل على مستوى الولايات. يجب إجبار شركات المنفعة العامة على الالتزام بأهداف واضحة، وقابلة للقياس، ومحددة زمنيا، ومكتوبة في وثائقها الإدارية، ومدعومة بسياسات داخلية، ومربوطة بمراجعات الأداء والمكافآت والتقدم الوظيفي. بالنسبة لأي شركة عاملة في مجال الذكاء الاصطناعي، من الممكن أن تشمل هذه الأهداف ضمان سلامة نماذج المؤسسات، والحد من التحيز في مخرجات النماذج، وتقليل البصمة الكربونية الناجمة عن دورات التدريب والنشر، وتنفيذ ممارسات العمل العادلة، وتدريب المهندسين ومديري المنتجات على حقوق الإنسان والأخلاقيات والتصميم التشاركي. الأهداف المحددة بوضوح، وليس التطلعات الغامضة، هي التي ستساعد الشركات على بناء الأساس للمواءمة الداخلية الجديرة بالثقة والمساءلة الخارجية. يجب أيضا إعادة تصور مجالس الإدارة وعملية الإشراف. ينبغي لمجالس الإدارة أن تضم مديرين ذوي خبرة يمكن التحقق منها في أخلاقيات الذكاء الاصطناعي، والسلامة، والأثر الاجتماعي، والاستدامة. يجب أن يكون لكل شركة مسؤول أخلاقي رئيسي يتمتع بتفويض واضح، وسلطة مستقلة، والقدرة على الوصول المباشر إلى مجلس الإدارة. ينبغي لهؤلاء المسؤولين أن يشرفوا على عمليات المراجعة الأخلاقية وأن يُمنحوا سلطة وقف أو إعادة تشكيل خطط المنتجات عند الضرورة. وأخيرا، يجب أن تكون شركات الذكاء الاصطناعي المهيكلة كمؤسسات منفعة عامة مُلـزَمة بنشر تقارير سنوية مفصلة تتضمن بيانات كاملة ومصنفة تتعلق بالسلامة والأمن، والتحيز والإنصاف، والأثر الاجتماعي والبيئي، وحوكمة البيانات. وينبغي لعمليات تدقيق مستقلة ــ يديرها خبراء في الذكاء الاصطناعي، والأخلاقيات، والعلوم البيئية، وحقوق العمال ــ أن تعكف على تقييم صحة هذه البيانات، بالإضافة إلى ممارسات الحوكمة في الشركة وتواؤمها في عموم الأمر مع أهداف المنفعة العامة.
أكدت خطة عمل ترامب للذكاء الاصطناعي على عدم رغبة إدارته في تنظيم هذا القطاع السريع الحركة. ولكن حتى في غياب الإشراف الفيدرالي، بوسع المشرعين على مستوى الولايات، والمستثمرين، وعامة الناس تعزيز حوكمة إدارة الشركات للذكاء الاصطناعي بممارسة الضغوط من أجل إصلاح نموذج شركات المنفعة العامة. يبدو أن عددا متزايدا من قادة التكنولوجيا يعتقدون أن الأخلاقيات أمر اختياري. ويجب على الأمريكيين أن يثبتوا أنهم على خطأ، وإلا فإنهم يتركون التضليل، والتفاوت بين الناس، وإساءة استخدام العمالة، وقوة الشركات غير الخاضعة للرقابة تشكل مستقبل الذكاء الاصطناعي.
كريستوفر ماركيز أستاذ إدارة الأعمال في جامعة كامبريدج ومؤلف كتاب «المستغلون: كيف تقوم الشركات بخصخصة الأرباح وتأميم التكاليف»
خدمة «بروجيكت سنديكيت»