في كشف غير مسبوق، كشفت مصادر استخباراتية مشاركة بشكل وثيق في الحملة العسكرية الإسرائيلية في غزة عن استخدام قاعدة بيانات تعمل بالذكاء الاصطناعي تسمى "لافندر".. وقد حدد هذا النظام، الذي لم يتم الكشف عنه سابقًا، عددًا مذهلاً من الأهداف المحتملة يبلغ 37.000 هدفًا لها علاقات مزعومة بحماس خلال الصراع.

ووفقا للجارديان، تحدثت هذه المصادر بصراحة، وكشفت عن الواقع المقلق لتكتيكات الحرب الإسرائيلية، مما يشير إلى أنه كان من المسموح به عن علم وقوع خسائر كبيرة في صفوف المدنيين، وخاصة في المراحل الأولى من الصراع.

لقد صوروا اللافندر كأداة محورية، تتجاوز الحكم البشري في تحديد الهدف وتنفيذه.

يمثل لافندر، الذي طورته الوحدة 8200، قسم استخبارات النخبة في جيش الاحتلال الإسرائيلي، قفزة كبيرة في دمج الذكاء الاصطناعي في الحرب الحديثة. ويؤدي نشرها إلى إجراء تحقيقات أخلاقية وقانونية عميقة، مما يؤدي إلى طمس الخطوط الفاصلة بين الاستراتيجية العسكرية والتقدم التكنولوجي.

وتوضح الشهادات التي أدلى بها ستة ضباط استخبارات، والتي تمت مشاركتها حصريًا مع صحيفة الجارديان، كيف قام لافندر بغربلة كميات هائلة من البيانات لتحديد عملاء حماس المحتملين، وحتى تصنيفهم على أساس الرتبة. علاوة على ذلك، أوصى النظام بأهداف للغارات الجوية، بما في ذلك المباني السكنية التي يعتقد أن المسلحين المشتبه بهم يتواجدون فيها.

ومع ذلك، فإن هذا الكشف يثير أسئلة مثيرة للقلق حول الأضرار الجانبية التي يتحملها الجيش الإسرائيلي. وبينما يصر الجيش الإسرائيلي على أن عملياته تلتزم بالقانون الدولي وتعطي الأولوية للدقة، فإن الشهادات ترسم صورة مختلفة. فهي تشير إلى التضحية بأرواح المدنيين سعياً لتحقيق أهداف عسكرية، مما يسلط الضوء على التعقيدات الأخلاقية المتأصلة في الصراع الحديث.

وبينما يتصارع المجتمع الدولي مع تداعيات الحرب التي يقودها الذكاء الاصطناعي، تؤكد الشهادات الحاجة الملحة لمزيد من التدقيق والمساءلة في عملية صنع القرار العسكري. تتطلب المعضلات الأخلاقية التي يثيرها استخدام اللافندر دراسة ومراقبة متأنيتين لمنع المزيد من التآكل في حماية المدنيين في مناطق النزاع.

إن الاكتشافات المحيطة بنشر لافندر تسلط الضوء على الطبيعة المتطورة للحرب والتحديات الأخلاقية التي تفرضها التقنيات المتقدمة. إن دمج الذكاء الاصطناعي في العمليات العسكرية يؤكد الحاجة إلى ضمانات قوية لدعم حقوق الإنسان ومنع إلحاق الأذى بالمدنيين في أوقات النزاع.

المصدر: صدى البلد

كلمات دلالية: الذکاء الاصطناعی

إقرأ أيضاً:

خلال محاكمة.. الذكاء الاصطناعي يحيل إلى مرجع غير موجود

في محاكمة بين "أنثروبيك" للذكاء الاصطناعي وأصحاب حقوق ملكية فكرية، تضمنت مذكرة قضائية للدفاع عن الشركة الناشئة إشارة إلى مرجع وهمي لا وجود له.
بدأ الذكاء الاصطناعي يغير تدريجيا طريقة العمل في المجال القضائي. فبينما تسهّل هذه الأداة البحث في السوابق القضائية، يجب أن تخضع مخرجاتها للمراقبة بسبب قدرتها على الهلوسة.
وقد برز هذا مؤخرًا في محاكمة بين شركة "أنثروبيك" للذكاء الاصطناعي وشركات موسيقية. في أكتوبر 2023، طلبت شركات موسيقى من القضاة الاتحاديين في ولاية كاليفورنيا حظر استخدام دليلها الموسيقي لتدريب نماذج الذكاء الاصطناعي الخاصة بشركة "أنثروبيك".
رفض القضاة هذا الطلب في مارس 2025، معتبرين أنه لا يوجد دليل على ضرر لا يمكن إصلاحه. بعد ذلك، رفع المدعون دعوى قضائية أخرى تتعلق بانتهاك حقوق الطبع والنشر. تكمن إحدى نقاط الخلاف الرئيسية في هذه القضية في فحص حجم العينة المتفاعلة مع أداة "كلود" للذكاء الاصطناعي التابعة لشركة "أنثروبيك"، لتحديد وتيرة إعادة إنتاج الذكاء الاصطناعي لكلمات الأغاني المحمية أو توليدها.
مرجع وهمي
قدمت أوليفيا تشين، عالمة البيانات في شركة "أنثروبيك"، مذكرة إلى المحكمة تُجادل فيها بأن عينة من مليون تفاعل مستخدم كافية لتقديم "معدل انتشار معقول" لظاهرة نادرة: مستخدمو الإنترنت يبحثون عن كلمات الأغاني. وقدّرت أن هذه الحالة لا تُمثل سوى 0.01% من التفاعلات. وفي شهادتها، استشهدت بمقال أكاديمي نُشر في مجلة "الإحصائي الأميركي" تبيّن لاحقا أنه غير موجود.
طلب المدعون من المحكمة استدعاء أوليفيا تشين ورفض أقوالها بسبب الإحالة إلى هذا المراجع الزائف. ومع ذلك، منحت المحكمة شركة "أنثروبيك" وقتًا للتحقيق. وقد وصف محامي الشركة الناشئة الحادثة بأنها "خطأ بسيط في الاستشهاد"، وأقرّ بأن أداة "كلود" للذكاء الاصطناعي استُخدمت "لتنسيق ثلاثة مراجع ببليوغرافية على الأقل بشكل صحيح". وفي هذا السياق، اخترع الذكاء الاصطناعي مقالاً وهمياً، مع مؤلفين خاطئين لم يعملوا معًا قط.
تجنب أخطاء الذكاء الاصطناعي
تُسلّط هذه الحادثة الضوء على الانتشار المُقلق للأخطاء الناتجة عن الذكاء الاصطناعي في الإجراءات القانونية، وهي ظاهرة متنامية تُعرّض الشركات لمخاطر جسيمة، لا سيما عندما يعتمد محاموها على هذه الأدوات لجمع المعلومات وصياغة الوثائق القانونية.
يقول برايان جاكسون، مدير الأبحاث في مجموعة Info-Tech Research Group "خلق استخدام الذكاء الاصطناعي نوعًا من الكسل الذي أصبح مصدر قلق في المجال القانوني". ويضيف: "لا ينبغي استخدام أدوات الذكاء الاصطناعي كحل شامل لإنتاج الوثائق اللازمة للملفات القضائية".

أخبار ذات صلة الذكاء الاصطناعي يتنبأ بسكر الدم! تعليم نماذج الذكاء الاصطناعي ما لا تعرفه المصدر: الاتحاد - أبوظبي

مقالات مشابهة

  • هجوم حاد على راشد الماجد لاستخدامه الذكاء الاصطناعي في أغنيته الجديدة.. فيديو
  • جامعة القاهرة تتصدّر أبحاث الذكاء الاصطناعي في مصر بـ2,191 بحثًا
  • «شرطة دبي» تنظم ورشة تعريفية لتطبيقات الذكاء الاصطناعي
  • خلال محاكمة.. الذكاء الاصطناعي يحيل إلى مرجع غير موجود
  • تعليم نماذج الذكاء الاصطناعي ما لا تعرفه
  • نقابات العمال الأمريكية تبدأ معركتها ضد الذكاء الاصطناعي
  • احذر فخ الذكاء الاصطناعي: مشهد وهمي بتقنية Veo 3 يثير الجدل
  • الأكبر منذ اتفاق وقف النار .. ضاحية بيروت تحت القصف الإسرائيلي
  • هل يوجد الذكاء الاصطناعي جيلا مسلوب المهارات؟
  • كيف استخدمت السعودية الذكاء الاصطناعي في إدارة موسم الحج؟