واشنطن بوست: إسرائيل بنت مصنعا للذكاء الاصطناعي وأطلقت له العنان في غزة
تاريخ النشر: 30th, December 2024 GMT
بعد هجوم حركة المقاومة الإسلامية (حماس) يوم 7 أكتوبر/تشرين الأول 2023، أمطرت القوات الإسرائيلية قطاع غزة بالقنابل، مستفيدة من قاعدة بيانات جُمعت بعناية على مر السنين فيها تفاصيل عناوين المنازل والأنفاق والبنية التحتية الحيوية لقطاع غزة، ولكن بعد نفاد بنك الأهداف لجأ الجيش إلى أداة ذكاء اصطناعي معقدة تسمى "هبسورا" أو "الإنجيل" يمكنها أن تولد بسرعة مئات الأهداف الإضافية.
بهذا الملخص صدّرت صحيفة واشنطن بوست تقريرا حصريا بقلم إليزابيث دوسكين، قالت فيه إن إسرائيل، قبل سنوات من حرب غزة، حولت وحدة استخباراتها إلى أرض اختبار للذكاء الاصطناعي، وقد سمح استخدامه بإعادة تعبئة بنك أهداف الجيش الإسرائيلي بسرعة لمواصلة حملته دون انقطاع، مما أسهم في تسعير الحرب المستمرة على غزة.
اقرأ أيضا list of 2 itemslist 1 of 2خبراء يكشفون سر استهداف الاحتلال مستشفيات غزةlist 2 of 2تقرير نيويورك تايمز يكشف "تغلغل" الموساد في حزب الله لسنواتend of listوأذاع الجيش الإسرائيلي وجود هذه البرامج التي تشكل ما يعتبره بعض الخبراء المبادرة العسكرية الأكثر تقدما في مجال الذكاء الاصطناعي، وقد سعت واشنطن بوست في تحقيقها هذا للكشف عن تفاصيل لم يتم الإبلاغ عنها من قبل عن العمليات الداخلية لبرنامج التعلم الآلي، إلى جانب التاريخ السري الذي دام عقدا من الزمان لتطويره.
حصيلة القتلىوكشف التحقيق أيضا عن نقاش داخل أعلى مستويات الجيش بدأ قبل سنوات من هجوم حماس، حول جودة المعلومات الاستخباراتية التي يجمعها الذكاء الاصطناعي، ومدى تدقيق توصيات التكنولوجيا، وهل التركيز على الذكاء الاصطناعي أضعف قدرات الاستخبارات الإسرائيلية.
إعلانوخلص بعض المنتقدين إلى أن برنامج الذكاء الاصطناعي كان قوة وراء الكواليس تعمل على رفع حصيلة القتلى في غزة، وقد أودت حتى الآن بحياة أكثر من 45 ألف شخص، أغلبهم من النساء والأطفال.
وبالإضافة إلى وثائق حصلت عليها، ذكرت الصحيفة أن تقريرها يستند أيضا إلى مقابلات مع أكثر من 12 شخصا على دراية بالأنظمة، تحدث العديد منهم بشرط عدم الكشف عن هويتهم لمناقشة تفاصيل مواضيع الأمن القومي السرية للغاية.
وقال ستيفن فيلدشتاين من مؤسسة كارنيغي، وهو باحث في استخدام الذكاء الاصطناعي في الحرب، إن "ما يحدث في غزة مقدمة لتحول أوسع في كيفية خوض الحرب".
وزعم الجيش الإسرائيلي أن الاتهامات التي تقول إن استخدامه للذكاء الاصطناعي يعرض الأرواح للخطر غير صحيحة، وأوضح في بيان أنه لما زادت القدرة على تجميع المعلومات بشكل فعال كانت العملية أكثر دقة، خاصة أن كل ضابط ملزم بالتوقيع على أي توصيات من أنظمة "معالجة البيانات الضخمة" الخاصة به.
ودافع يوسي سارييل رئيس الوحدة 8200 -وهي استخبارات الإشارات التابعة للجيش- عن تطوير برنامج "الإنجيل"، وهو برنامج تعلم آلي مبني على مئات خوارزميات التنبؤ، يسمح للجنود بالاستعلام بسرعة عن كنز هائل من البيانات معروف داخل الجيش باسم "المسبح".
وبمراجعة كميات هائلة من البيانات من الاتصالات التي تم اعتراضها، ولقطات الأقمار الصناعية والشبكات الاجتماعية، تقوم الخوارزميات بإخراج إحداثيات الأنفاق والصواريخ وغيرها من الأهداف العسكرية، وتوضع التوصيات التي تصمد للتدقيق في بنك الأهداف من قبل ضابط كبير.
وتستخدم أداة أخرى للتعلم الآلي تسمى "لافندر" درجة مئوية للتنبؤ بمدى احتمال أن يكون الفلسطيني عضوا في جماعة مسلحة، مما يسمح للجيش الإسرائيلي بتوليد حجم كبير من الأهداف البشرية المحتملة بسرعة، كما أن هناك برامج خوارزمية أخرى تسمح للجنود بالاستعلام عن مجموعات بيانات مختلفة، لم يتم الإبلاغ عنها سابقا.
إعلان مخاوفوأشارت الصحيفة إلى أن العديد من الضباط أعربوا عن مخاوفهم من أن تكنولوجيا التعلم الآلي التي سرّعت اتخاذ القرار أخفت عيوبا أساسية، وبالفعل وجدت مراجعة داخلية أن بعض أنظمة الذكاء الاصطناعي لمعالجة اللغة العربية بها أخطاء، وفشلت في فهم الكلمات والعبارات العامية الرئيسية، وفقا للقائدين العسكريين السابق ذكرهما.
كذلك تتنبأ تكنولوجيا التعلم الآلي في الجيش الإسرائيلي -حسب الصحيفة- بعدد المدنيين الذين قد يتأثرون بالهجمات، وكانت "نسبة الضحايا المدنيين المقبولة لدى الجيش الإسرائيلي في عام 2014 مدنيا واحدا لكل إرهابي رفيع المستوى"، حسب ما قاله تال ميمران المستشار القانوني السابق للجيش الإسرائيلي.
وفي حرب غزة، ارتفع العدد إلى 15 مدنيا لكل عضو منخفض المستوى من حماس و"أعلى بشكل كبير" بالنسبة للأعضاء من المستوى المتوسط والعالي، حسب منظمة حقوق الإنسان الإسرائيلية "كسر الصمت".
ويزعم بعض أنصار استخدام إسرائيل للتكنولوجيا أن نشر الابتكارات مثل الذكاء الاصطناعي بشكل عدواني أمر ضروري لبقاء دولة صغيرة تواجه أعداء مصممين وأقوياء. فقد قال بليز ميشتال، نائب رئيس السياسات في المعهد اليهودي للأمن القومي الأميركي، إن "التفوق التكنولوجي هو ما يحافظ على أمن إسرائيل، فكلما تمكنت من تحديد قدرات العدو بشكل أسرع وإخراجها من ساحة المعركة كانت الحرب أقصر، وستكون الخسائر أقل".
وتحت قيادة سارييل وقادة استخباراتيين آخرين، تمت إعادة هيكلة 8200 للتركيز على المهندسين، وخفض المتخصصين في اللغة العربية، وإزالة العديد من القادة المقاومين للذكاء الاصطناعي، وحل بعض المجموعات التي لا تركز على تكنولوجيا استخراج البيانات، وفقا لثلاثة أشخاص.
وتطرح تهم الإبادة الجماعية التي رفعتها جنوب أفريقيا ضد إسرائيل أمام محكمة العدل الدولية إشكالا يقول: هل القرارات الحاسمة بشأن قصف الأهداف في غزة تتخذ بواسطة برامج؟ وهو تحقيق يمكن أن يسرع من النقاش العالمي حول دور تكنولوجيا الذكاء الاصطناعي في الحرب.
إعلانوأعلن سارييل أنه يخطط للتنحي عن منصبه في ظل تزايد الاستجوابات بشأن الإخفاقات الاستخباراتية التي أدت إلى هجوم السابع من أكتوبر/تشرين الأول، وقال اثنان من كبار القادة السابقين إنهما يعتقدان أن التركيز الشديد على الذكاء الاصطناعي كان سببا مهما في وقوع إسرائيل على حين غرة في ذلك اليوم.
ووصف أحد القادة العسكريين السابقين -متحدثا بشرط عدم الكشف عن هويته- موضوعات الأمن القومي قائلا "كان هذا مصنعا للذكاء الاصطناعي، لقد تم استبدال الرجل بالآلة".
عنق الزجاجةوقبل عامين من توليه منصب قائد الاستخبارات، أمضى سارييل عاما إجازة في جامعة الدفاع الوطني بواشنطن، وقد وضع كتابا عن رؤية لغرس الأتمتة في مؤسسات الأمن القومي، بعنوان "فريق الإنسان والآلة: كيفية خلق التآزر بين الذكاء البشري والاصطناعي".
ووصف في الكتاب كيف يمكن التنبؤ بأفعال من يصفهم بالإرهابيين المنفردين مسبقا من خلال إطلاق العنان للخوارزميات لتحليل مواقع الهاتف ومنشورات وسائل التواصل الاجتماعي، ولقطات الطائرات المسيرة والاتصالات الخاصة التي تم اعتراضها.
وفي كتابه، زعم سارييل أن الذكاء الاصطناعي سيكون مفيدا بشكل خاص في زمن الحرب، عندما يمكنه تسريع تشكيل الهدف وفتح "عنق الزجاجة البشري" الذي أبطأ كل شيء.
ومع انتقاله إلى القيادة العليا، سارع سارييل إلى تسريع جهود استخراج البيانات، ودافع عن إعادة تنظيم واسعة النطاق قسمت جهود الاستخبارات إلى ما أشار إليه القادة باسم "مصانع الذكاء الاصطناعي" الموجودة في "مركز الأهداف" الذي أنشئ حديثا في قاعدة نيفاتيم الجوية في جنوب إسرائيل، وصممت كل فرقة مئات من الخوارزميات وتقنيات التعلم الآلي ووسائل تبادل التنبؤات البرمجية عبر سلسلة القيادة الاستخباراتية.
وكان بعض قادة القسم قلقين بشأن دقة هذه الخوارزميات، وكشفت إحدى عمليات التدقيق على تقنية معالجة اللغة أن التنبؤ بالبرمجيات لم يكن دقيقا دقة البشر، كما كان آخرون قلقين من إعطاء تنبؤات البرنامج وزنا كبيرا.
إعلانوقال الصحفي الإسرائيلي بن كاسبيت الذي أجرى مقابلات مع كل قائد في وحدة 8200 من أجل كتاب يعدّه في الموضوع إن "الخلاصة هي أنه لا يمكنك استبدال الرجل الذي يصرخ: اسمع هذا خطير، بكل تقنيات الذكاء الاصطناعي المتقدمة في العالم. كان هذا هو الغطرسة التي أصابت الوحدة بأكملها".
وفي يونيو/حزيران 2021، أتيحت لإسرائيل أول فرصة لإطلاق العنان لبنك الأهداف الجديد الذي يعمل بالخوارزمية، مع اندلاع حرب استمرت 11 يوما على غزة، واستغل كبار القادة هذه اللحظة كفرصة ترويجية لمناقشة ثورة الذكاء الاصطناعي الجارية في نيفاتيم، وداخل مقر 8200 شمال تل أبيب مباشرة، وقال ميشتال إن كل ما أراد كبار القادة "الحديث عنه هو أول حرب ذكاء اصطناعي في العالم".
مصنع أهدافومع أن القانون الإنساني الدولي يطلب من الدول المتحاربة موازنة الميزة العسكرية المتوقعة للهجوم مع الأضرار الجانبية المتوقعة للمدنيين، فإن المعاهدات التي لم تصادق عليها إسرائيل إلا جزئيا صامتة بشأن الذكاء الاصطناعي، وإن قال الجيش الإسرائيلي إن معالجة بيانات الاستخبارات العسكرية "تلبي تعريف القانون الدولي للهدف المشروع".
وباعتراف إسرائيل نفسها، قام الذكاء الاصطناعي بدور كبير في عملية الاستهداف في غزة، وسرعان ما أمطرت إسرائيل المنطقة بالذخائر المصنعة في الولايات المتحدة من طراز مارك 80 التي يبلغ وزنها ألفي رطل.
وفي بيان صحفي صدر يوم 2 نوفمبر/تشرين الثاني 2023، أعلن الجيش الإسرائيلي أن الذكاء الاصطناعي ساعده في قصف 12 ألف هدف في غزة. وعلى أنغام موسيقى درامية وفيديو لمباني تنفجر، أعلن البيان عن "تعاون هو الأول من نوعه"، حيث تتم تغذية المعلومات الاستخباراتية من مصنع الأهداف بالذكاء الاصطناعي في الوقت الفعلي للقوات على الأرض وفي الجو وفي البحر، مما يتيح "تنفيذ مئات الهجمات في لحظة".
إعلانوفي الأيام الأولى من الحرب كان مصنع الأهداف يعمل بكامل طاقته، وكان يعمل به نحو 300 جندي على مدار الساعة، وكان مطلوبا من العديد من المحللين التحقق من الأهداف الموصى بها من برنامجي "الإنجيل" و"لافندر"، إلا أنه مع تسارع الأحداث تم إسقاط القاعدة التي تلزم باعتماد مصدرين من المعلومات الاستخباراتية المستمدة من البشر للتحقق من صحة التنبؤ من "لافندر".
وفي بعض الحالات في فرقة غزة، هاجم جنود مدربون بشكل سيئ على استخدام التكنولوجيا أهدافا بشرية دون التحقق من تنبؤات "لافندر" على الإطلاق، وفقا لأحد الجنود، وشعر بعض الجنود بالقلق من أن الجيش يعتمد فقط على التكنولوجيا دون تأكيد أن الأشخاص ما زالوا أعضاء نشطين في حماس.
ونقلت واشنطن بوست عن هايدي خلف -وهي منتقدة صريحة لإسرائيل وكبيرة علماء الذكاء الاصطناعي في معهد الذكاء الاصطناعي بنيويورك- أن أنظمة الذكاء الاصطناعي تحتوي على أخطاء مدمجة تجعلها غير مناسبة لسياق الحياة والموت مثل الحرب، وأشارت إلى أن صناعة المركبات الذاتية القيادة أمضت العقد الماضي في محاولة الحصول على خوارزميات التعلم الآلي الخاصة بها بدقة 100% دون نجاح يذكر.
المصدر: الجزيرة
كلمات دلالية: حريات ترجمات الذکاء الاصطناعی فی الجیش الإسرائیلی للذکاء الاصطناعی التعلم الآلی واشنطن بوست العدید من فی غزة
إقرأ أيضاً:
هل اقتربنا من سيناريوهات انفجار الذكاء الاصطناعي؟
انتقل الذكاء الاصطناعي من مجرد أداة تُستخدم في الترجمة وإعداد النصوص وتحليل البيانات إلى قوة صاعدة تفرض نفسها في برامج الهندسة والصناعة والطب وحتى الإعلام والسياسة والأمن.
ولم يعد النقاش الحالي يتناول قضايا الذكاء الاصطناعي وقدرته على أداء المهام التقليدية من ترجمة وتحليل للبيانات وتلخيص للنصوص، وإنما أصبح التركيز يدور حول الفرضيات التي تقول إن هذا المجال سيدخل في مرحلة "الانفجار الذاتي" أي إعادة برمجة ذاته عبر تطوير خوارزميات جديدة من دون الاعتماد على المبرمج البشري.
اقرأ أيضا list of 2 itemslist 1 of 2لماذا تدعم دول جزر المحيط الهادي إسرائيل؟list 2 of 2أبرز ما نشرته مراكز الدراسات والأبحاث في أسبوعend of listوبشأن الأبحاث والتقارير التي تناقش فرضية الذكاء الاصطناعي ودخوله قريبا في مرحلة جديدة تتيح له أن يصبح كيانا مستقلا قادرا على إعادة تصميم ذاته، نشر موقع مركز الجزيرة للدراسات ورقة بحثية تحت عنوان "الذكاء الاصطناعي وإعادة البرمجة الذاتية: سيناريوهات الانفجار الذكي".
الورقة البحثية -التي أعدها الدكتور خالد وليد محمود رئيس قسم الإعلام والاتصال في معهد الدوحة للدراسات العليا- ناقشت جذور فرضية الانفجار الذكي للذكاء الاصطناعي، ومن يتحكم في هذه القوة، وإشكالية الاستقلال والاعتماد على الذات.
في أبريل/نيسان 2025، نشر مشروع "مستقبل الذكاء الاصطناعي" تقريرا رسم صورة مذهلة عن الذكاء الاصطناعي مفاده أنه خلال عامين سيكون قادرا على القيام بدور المهندس، إذ يمكن أن يعتمد على ذاته في إعادة تصميم بنيته الداخلية.
وتفاعلت وسائل الإعلام العالمية مع هذا التقرير، حيث أشارت مجلة " ذا نيويوركر" (the new Yorker) إلى مسارين متباينين حول مستقبل الذكاء الاصطناعي:
الأول: يرجح أن يكون له مستقبل يفوق الإنسان في جميع المجالات. أما الاحتمال الثاني: فيفترض أن التحول لن يكون سريعا، لاعتماده على محدودية الموارد وتأجيل الحوكمة. إعلانوفي الوقت الذي وصفت فيه بعض وسائل الإعلام العالمية هذه التقارير والأبحاث بأنها تبقى في سياق الفرضيات المحملة بالجدلية، فإنها دعت إلى صياغة سياسات استباقية للتعامل مع احتمالية التطور الذي يفوق التدخل البشري.
ويعود جذور مفهوم "الانفجار الذكي" إلى عام 1965، حين نشر عالم الرياضيات البريطاني آي. جي. غود (I.j. good) مقالا بعنوان: "تخمينات حول أول آلة فائقة الذكاء"، تنبّأ فيه بأن أول آلة فائقة الذكاء ستتمكن من تحسين تصميمها الذاتي باستمرار حتى تصل إلى مرحلة يصعب على البشر اللحاق بها.
وقد تبين أن هذه الرؤية التي بدت حينها أقرب إلى الخيال العلمي أو التأمل الفلسفي، تحولت لاحقا إلى فرضية مركزية في أدبيات الذكاء الاصطناعي والفلسفة العقلية، وخرجت من نطاق النقاشات الأكاديمية إلى مجالات التطبيق والممارسة الفعلية.
وبعد فكرة العالم البريطاني، جاء الفيلسوف السويدي، نيك بوستروم (Nick Bostrom)، ليُطوّرها بشكل منهجي في كتابه: "الذكاء الفائق: المسارات، المخاطر، الإستراتيجيات"، حيث وضع فيه سيناريوهات مفصلة للانفجار الذكي، محذرا من أن لحظة الوصول إلى ذكاء فائق قد تكون أسوأ ما تواجهه البشرية.
من جانب آخر، وجّه باحثون -مثل غاري ماركوس (Gary Marcus) وأرفيند نارايانان (Arvind Narayanan)- انتقادات حادة لفكرة الانفجار الذكي، معتبرين أن الحديث عن قفزة مفاجئة نحو ذكاء فائق، يتجاهل القيود التقنية والمادية الصارمة التي تحكم تطور الخوارزميات.
ويجادل هذا الفريق بأن الذكاء الاصطناعي، مهما بلغت قدراته، سيظل قائما على بيانات ومعالجات مادية، وأنه لا يمكن فصله عن القيود البشرية المتعلقة بالطاقة والموارد والتكلفة.
وعلى الصعيد العملي، أصبح "الذكاء الفائق" جزءا من إستراتيجيات الحكومات الكبرى، فالولايات المتحدة والصين والاتحاد الأوروبي يتعاملون مع هذه الأفكار بوصفها سيناريو واقعيا لا محالة ينبغي الاستعداد له، وليس قصة من الخيال العلمي أو الأفكار الفلسفية.
مشكلة القدرة على الاستقلاليةورغم الإشارات القوية التي تصب في اتجاه فرضية الانفجار الذاتي للذكاء الاصطناعي، فإن الوقت الراهن يكشف أن الحاجة ما زالت قائمة للاعتماد على البشر، وأن الأنظمة الذكية لا تزال غير قادرة على الاعتماد على ذاتها.
فالنماذج الأكثر تقدما في الذكاء الاصطناعي اليوم مثل "تشات جي بي تي" (ChatGPT)، و"جيميني" (Gemini)، و"كلود" (Claude) كلها تعمل ضمن إطار بنية تحتية بشرية معقدة وضخمة إلى حدّ مذهل، إذ تحتاج إلى ملايين من المعالجات الفائقة موزعة على مراكز بيانات عالمية، تستهلك وحدها طاقة كهربائية تعادل استهلاك مدن صغيرة أو حتى متوسطة الحجم.
وبالإضافة إلى ذلك تعتمد هذه الأنظمة على شبكات إنترنت عالية الكفاءة، وأنظمة تبريد هائلة للحفاظ على استقرار الأجهزة والوسائل اللوجيستية، وسلسلة طويلة من الخبراء والمهندسين الذين يشرفون على كل تفصيل، ويقومون بالمراقبة والتنظيم والتدخل.
ورغم كل ذلك فإن الباحثين يقولون إن المؤشرات تثبت وجود ملامح قدرات على إعادة البرمجة الذاتية، حيث ظهرت برامج تستطيع تعديل بنيتها الداخلية وتوليد خوارزميات وأكواد جديدة لتحسين الأداء.
إعلانوبناء على ذلك يمكن القول إن العالم يقف عند مفارقة لافتة للانتباه، وهي الأنظمة الحالية قوية وأصبحت تفوق توقعات العقد الماضي، بيد أنها في الوقت ذاته لا تزال هشة وتعتمد كليا على البشر.
من يمتلك الذكاء الفائق؟وانطلاقا من فرضية أن نظاما قادرا على تطوير نفسه قد ظهر بالفعل، فإن الإشكال الجيوسياسي سيزيد من التعقيد المتعلق بالذكاء الاصطناعي الخارق.
فمن سيملك التحكم في هذا النظام؟ هل تكون الولايات المتحدة عبر شبكات وادي السيليكون التي تسيطر على البنية التحتية للذكاء الاصطناعي وتملك رأس المال الثقافي والتمويلي؟ أم ستكون الصين التي تراهن على الدمج العميق بين الدولة والجيش والشركات، وتستثمر مواردها الهائلة لتصبح صاحبة الريادة؟
أوروبا بدورها اتخذت مسارا تشريعيا عام 2014، عبر قانون الاتحاد الأوروبي للذكاء الاصطناعي، الذي وضع قواعد صارمة للشفافية والأمان والنزاهة.
وعلى مستوى الشرق الأوسط، فقد ظهرت إستراتيجيات السيادة الرقمية التي تبنتها دولتا قطر والإمارات إدراكا بأن من يمتلك البيات يكون له حضور في المشهد السياسي والعسكري في المستقبل.
الأبعاد الأخلاقية وسيناريوهات المستقبلوفي سياق المخاوف، تطرح الأبعاد الأخلاقية لمسألة الذكاء الخارق، لأنه قد يتحول إلى صناديق سوداء يجهل البشر ما يجري بداخلها، فثورة الإنترنت التي غيرت مفهوم الزمان والمكان، لم تسلب الإنسان عقله ولم تغير دوره كفاعل معرفي، أما الذكاء الاصطناعي فإنه بهذه الفرضيات والتنبؤات يتجه إلى أن يحل محل العقل.
وفي هذا السياق الذي يشكل مخاطر وقيودا على عقل الإنسان، بدأت الأمم المتحدة في مناقشة إمكانية صياغة "معاهدة للذكاء الاصطناعي" شبيهة بمعاهدة حظر انتشار الأسلحة النووية على أساس أن المخاطر لا تقتصر على دولة أو شركة واحدة بل تمس الإنسانية كلها.
وحول المستقبل، هنالك احتمالات أهمها:
السيناريو التفاؤلي: الذي يقول إن الذكاء الاصطناعي سيكون شريكا حقيقيا وليس مجرد أداة مساعدة.
أما السيناريو التشاؤمي: فيرى أنه سيفوق الإنسان وينافسه في سوق العمل ويقضي على ملايين الوظائف.
وتفرض الثورة الحالية على البشرية أن تكون أكثر جرأة في التفكير لمواجهة الذكاء الاصطناعي، لأن التجارب التاريخية تقول إن التحولات الكبرى لا تنتظر البشر حتى يستعدوا لها.