مع نظام "حبسورا" قد تصيب وقد تخيب.. إسرائيل تستخدم الذكاء الاصطناعي لتنفيذ "اغتيالات جماعية" في غزة
تاريخ النشر: 5th, December 2023 GMT
وتستعد إسرائيل، التي استخدمت لسنوات عدة التكنولوجيا الذكية لتعزيز قدراتها، لتسويق نظام "حبسورا" أي الإنجيل باللغة العبرية عرضه للبيع عالمياً.
طوّرت تل أبيب نظام ذكاء اصطناعي يدعى "حبسورا" أو "الإنجيل" باللغة العبرية، ويستخدمه الجيش الإسرائيلي لتحديد أهدافه في قطاع غزة بشكل أسرع وأكثر دقة.
النظام المذكور يختلف بشكل جذري عن النظم الاصطناعية المعتادة في مجال الذكاء الاصطناعي التي نتفاعل معها يومياً ونعرفها، والتي تهدف بشكل أساسي إلى مساعدة البشر وتوفير الموارد والمعلومات بأسرع وقت ممكن.
إذ يهدف "حبسورا" إلى تعزيز أهداف إسرائيل في المواجهة مع الفلسطينيين، ويساهم في توفير المزيد من المعلومات حول مواقع أي فرد قد يشكل تهديدًا حقيقيا بالنسبة للدولة العبرية.
وكانت "مجلة 972+" السياسية، وهي وسيلة إعلام إسرائيلية يديرها صحفيون فلسطينيون وإسرائيليون، قد نشرت تقريرا مفصلا عن نظام "حبسورا"، استندت فيه إلى شهادات مجموعة من العسكريين الإسرائيليين السابقين والذين لا يزالون في الخدمة.
وقالت المجلة إنه في إحدى الضربات التي نفذها الجيش الإسرائيلي مستعينا بنظام "حبسورا"، وافقت المخابرات على قتل مئات الفلسطينيين لاغتيال عضو واحد تابع لحركة "حماس".
ونقلت المجلة عن مسؤول استخباراتي قوله، إن الأنظمة المبنية على الذكاء الاصطناعي مثل "حبسورا" تتيح للجيش الإسرائيلي تحديد واستهداف منازل النشطاء الصغار نسبياً في حركة "حماس"، الذين قد يختبئون خلال العمليات العسكرية.
القيادي بحركة حماس يحيى السنوار.. الرجل "الحي الميّت" و"البراغماتي صعب المراس""مصنع الاغتيالات الجماعية"ووصف ضابط سابق، نظام الذكاء الاصطناعي الإسرائيلي بـ "مصنع الاغتيالات الجماعية" أي أنه "مصنع يقوم بتنفيذ اغتيالات جماعية" حيث يتم التركيز حسب تعبيره، على الكمية عوضا عن الجودة.
وسلطت "مجلة 972+" الضوء، على شهادات فلسطينيين منذ هجوم "حماس" المباغت في السابع من أكتوبر/تشرين الأول، والتي تؤكد أن الجيش الإسرائيلي استهدف عشرات المباني والمساكن الخاصة التي لم يكن يقيم فيها أي أعضاء معروفين أو واضحين على صلة بـ "حماس"، أو جماعة مسلحة أخرى.
وأكدت أن هذه الضربات قد تؤدي إلى قتل متعمد لعائلات بأكملها، متسائلة "هل يمكن الوثوق بنظام يعتمد على الذكاء الاصطناعي لاختيار الأهداف التي يجب ضربها".
وأشار أحد الخبراء إلى أن الخوارزميات لا توضح كيفية وصول النظام إلى استنتاجاته، وهذا يجعل من الصعب التحقق من صحة نتيجة الضربة.
وتستعد إسرائيل، التي استخدمت لسنوات عدة التكنولوجيا الذكية لتعزيز قدراتها، لعرض نظام "حبسورا" للبيع عالمياً.
شاهد: مدنيون نازحون في غزة يحاولون الاختباء من النيران الإسرائيلية"كأنه مصنع"ويقوم نظام "حبسورا" بتحليل كميات ضخمة من البيانات التي عجز عن تحليلها عشرات الآلاف من عملاء المخابرات، بهدف تقديم اقتراحات تسهم في تحديد أهداف الجيش الإسرائيلي في الضربات القادمة.
ويشير أحد الضباط إلى أن "استخدام هذا النظام لا يعني أن الجيش لن يراقب الأهداف قبل تنفيذ الضربات، ولكنه يقلل من الجهد المبذول"، ويؤكد أنه "من المؤسف جدًا أن يكون الهدف المقصود هو مجرد أماكن يسكنها مدنيون".
بعد تحليل مجموعة كبيرة من البيانات، يقدم النظام توصياته إلى الجيش الإسرائيلي. ثم يتم بعدها إعداد قائمة بعشرات الأهداف المحتملة التي يمكن أن تكون ضرباتها مفيدة لإسرائيل، وقد تكون أخرى غير مجدية، أو لا تحقق فائدة فعلية. وتتسبب بتدمير منازل العديد من المدنيين، ومقتل العشرات، بسبب افتراض نظام "حبسورا" أن الهدف المستهدف قد يكون تابعًا لأحد قادة "حماس" أو "الجهاد الإسلامي".
أحد الأفراد العاملين في الوحدة المسؤولة عن الاستهداف في الجيش الإسرائيلي، وهي وحدة تستخدم التكنولوجيا الذكية في عملها وقد تأسست عام 2019 يقول: "نقوم بتجهيز الأهداف تلقائياً، ونعمل وفقاً لقائمة مرجعية. إنها تشبه حقًا عملية التصنيع".
وأضاف "نحن نعمل بسرعة، وليس لدينا الوقت لدراسة معمقة للأماكن التي يجب ضربها. يتم تقييمنا بناءً على الأهداف التي نحققها وعددها".
وحسب مصادر متعددة استشهدت بها المجلة، وبينما كان كبار مسؤولي "حماس" يختبئون داخل أنفاق غزة، وبعيدا عن الضربات والقصف الإسرائيلي، استخدم الجيش نظام "حبسورا" لاستهداف منازل مقاتلي الجماعة الإسلامية، وبلغ إجمالي عدد هذه الأهداف في قطاع غزة حوالي 30 ألفاً.
وول ستريت جورنال: إسرائيل تخطط لسحب مياه البحر بمضخات لإغراق أنفاق حماس في غزة وإخراج مقاتليهامعلومات غامضةيستخدم نظام "الإنجيل"، الأدوات الرقمية لإنتاج الأهداف بسرعة، وتحسين المواد الاستخباراتية وفقاً لاحتياجات التشغيل.
ووفقًا لصحيفة "الغارديان"، ما زالت المعلومات حول كيفية عمل "حبسورا" غامضة، ولكن بعض الخبراء أكدوا في مقابلات مع الصحيفة البريطانية أن مثل هذه الأنظمة عادة ما تحتوي على مجموعات شاملة ومتنوعة من البيانات المأخوذة من عدد كبير من المصادر.
يشمل ذلك الاستفادة من صور ومقاطع فيديو للطائرات بدون طيار، وعمليات اعتراض الاتصالات والاستماع إلى المحادثات، واستخدام بيانات المراقبة، واستخلاص المعلومات من خلال مراقبة حركة الأفراد والمجموعات البشرية بشكل دقيق، والتركيز على أنماط سلوكية محددة. (يمكن تسجيل طريقة سير أحدهم كبيانات، ومن ثم يتم تحليل مشاهد فيديو لمجموعات بشرية باستخدام الذكاء الاصطناعي، بهدف تحديد شخص معين بينهم).
شارك هذا المقالمحادثة مواضيع إضافية الجيش الإسرائيلي: وثائق تظهر مستوى من التفاصيل والإعداد الدقيق لهجوم حركة حماس اشتباكات عنيفة بين الجيش الإسرائيلي وحركة حماس في جنوب قطاع غزة "أكاذيب هدفُها شيطنة المقاومة".. هكذا ردت حماس على اتهامها بارتكاب جرائم اغتصاب خلال طوفان الأقصى إسرائيل غزة الذكاء الاصطناعي حركة حماس الصراع الإسرائيلي الفلسطينيالمصدر: euronews
كلمات دلالية: إسرائيل غزة الذكاء الاصطناعي حركة حماس الصراع الإسرائيلي الفلسطيني حركة حماس إسرائيل غزة فلسطين الصراع الإسرائيلي الفلسطيني الشرق الأوسط روسيا طوفان الأقصى البيئة فلاديمير بوتين حركة حماس إسرائيل غزة فلسطين الصراع الإسرائيلي الفلسطيني الشرق الأوسط الذکاء الاصطناعی الجیش الإسرائیلی یعرض الآن Next حرکة حماس قطاع غزة
إقرأ أيضاً:
هل يخفي الذكاء الاصطناعي عنصرية خلف خوارزمياته الذكية؟
مؤيد الزعبي
بما أننا مقبلون على مرحلة جديدة من استخدامات الذكاء الاصطناعي وجعله قادرًا على اتخاذ القرارات بدلًا عنَّا يبرز سؤال مهم؛ هل سيصبح الذكاء الاصطناعي بوابتنا نحو مجتمع أكثر عدلًا وإنصافًا؟ أم أنه سيعيد إنتاج تحيزاتنا البشرية في قالب رقمي أنيق؟ بل الأخطر من ذلك: هل سيغدو الذكاء الاصطناعي أداة عصرية تمارس من خلالها العنصرية بشكل غير مُعلن؟
قد تحب- عزيزي القارئ- تصديق أن هذه الأنظمة "ذكية" بما يكفي لتكون حيادية، لكن الحقيقة التي تكشفها الدراسات أكثر تعقيدًا؛ فالذكاء الاصطناعي في جوهره يتغذى على بياناتنا وتاريخنا، وعلى ما فينا من تحامل وتمييز وعنصرية، وبالتالي فإن السؤال الحقيقي لا يتعلق فقط بقدرة هذه الأنظمة على اتخاذ قرارات عادلة، بل بمدى قدرتنا نحن على برمجتها لتتجاوز عيوبنا وتاريخنا العنصري، ولهذا في هذا المقال نقترب من هذه المنطقة الرمادية، حيث تتقاطع الخوارزميات مع العدالة، وحيث قد تكون التقنية المنقذ أو المجرم المتخفي.
لنقرّب الفكرة بمثال واقعي: تخيّل شركة تستخدم الذكاء الاصطناعي لفرز السير الذاتية واختيار المتقدمين للوظائف. إذا كانت خوارزميات هذا النظام مبنية على بيانات تحمل انحيازًا ضد جنس أو لون أو جنسية معينة، فقد يستبعد المرشحين تلقائيًا بناءً على تلك التحيزات. وهذا ليس ضربًا من الخيال؛ فقد وجدت دراسة حديثة أجرتها جامعة واشنطن (أكتوبر 2024) أن نماذج لغوية كبيرة أظهرت تفضيلًا واضحًا لأسماء تدلّ على أصحاب البشرة البيضاء بنسبة 85%، مقابل 11% فقط لأسماء مرتبطة بالنساء، و0% لأسماء تعود لأشخاص من ذوي البشرة السوداء، تُظهر هذه الأرقام المقلقة كيف أن خوارزميات الذكاء الاصطناعي، والتي تستخدمها نحو 99% من شركات "فورتشن 500"، يمكن أن تؤثر سلبًا على فرص ملايين الأشخاص الباحثين عن عمل، لا لسبب سوى أنهم وُلدوا بهوية مختلفة، أي أن تحيّز هذه الأنظمة يمكن أن يمس ملايين الباحثين عن العمل.
الأمر يزداد خطورة عند الحديث عن أنظمة التعرف على الوجوه، والتي تُستخدم حاليًا في تعقب المجرمين ومراقبة الأفراد. دراسات عديدة أثبتت أن هذه الأنظمة تخطئ بنسبة تصل إلى 34% عند التعامل مع النساء ذوات البشرة الداكنة، كما تُسجَّل أخطاء في التعرف على الوجوه الآسيوية، ما قد يؤدي إلى اعتقالات خاطئة أو مراقبة غير مبررة لأشخاص أبرياء، فقط لأن الخوارزمية لم تتعلم بشكل عادل، وتخيل الآن كيف سيكون الأمر عندما يدخل الذكاء الاصطناعي- بكل تحيزاته- إلى قاعات المحاكم، أو إلى أنظمة القضاء الإلكترونية، ليصدر أحكامًا أو يوصي بعقوبات مشددة، وحينها بدلًا من أن نصل لقضاء عادل سنصل لعدالة مغلفة بواجهة من الحياد الزائف.
ولننتقل إلى السيناريو الأكثر رعبًا: الذكاء الاصطناعي في المجال العسكري. ما الذي قد يحدث إذا تم برمجة أنظمة قتالية لتحديد "العدو" بناءً على لون بشرة أو جنسية؟ من يتحمل المسؤولية حين ترتكب هذه الأنظمة مجازر على أساس تحيز مبرمج مسبقًا؟ تصبح هذه الأنظمة أداة للقتل بعنصرية عقل إلكتروني، ومن هنا ستتفاقم العنصرية، وستصبح هذه الأنظمة بلا شك أداة لقتل كل ما تراه عدوًا لها ليأتي اليوم الذي تجدنا فيه نحن البشر ألذ أعدائها.
في قطاع الرعاية الصحية أيضًا يمكن للذكاء الاصطناعي أن يكون عنصريًا خصوصًا لو تم برمجتها لتتحكم بمستحقي الدعم الصحي أو حتى استخدامها في أنظمة حجز مواعيد العمليات، فلو وجد أي عنصرية بهذه الأنظمة؛ فبالطبع ستعطي الأولوية لأصحاب بشرة معينة أو جنسية معينة مما سيحرم الكثيرين من الوصول للعلاج في الوقت المناسب.
حتى نكون منصفين هنا نحتاج إلى تمييز دقيق بين نوعين من عنصرية الذكاء الاصطناعي: العنصرية المقصودة: الناتجة عن برمجة متعمدة تخدم مصالح أو توجهات محددة، والعنصرية غير المقصودة: الناتجة عن تغذية الأنظمة ببيانات غير عادلة أو تمثل واقعًا عنصريًا، فتُصبح الخوارزميات انعكاسًا له.
وأيضًا هناك مشكلة مهمة يجب معالجتها فلو عدنا لموضوع الرعاية الصحية؛ فلو قمنا بإدخال بيانات المرضى على هذه الأنظمة وكان حجم البيانات لفئة معينة أكثر من فئة أخرى فربما يعالج الذكاء الاصطناعي هذا الأمر على أن فئة معينة لا تحتاج للعلاج أو تحتاج لرعاية صحية أقل من غيرها وبالتالي يستثنيها من علاجات معينة أو مطاعيم معينة مستقبلًا، ولهذا يجب أن نعمل على تنقيح بيناتنا من العنصرية قدر الإمكان لتجنب تفاقم الأزمة مستقبلا.
يجب ألا نعتقد أبدًا بأن الذكاء الاصطناعي سيكون منصفًا لمجرد أنه آلة لا تفاضل شيء على شيء، فهذا سيمكن الصورة النمطية الموجودة حاليًا في مجتمعاتنا، فالذكاء الاصطناعي تقنية مازالت عمياء وليست واعية بما يكفي لتميز أية التمييز وتحذفه من برمجياتها، إنما تأخذ الأنماط الموجودة وتبني عليها، وسنحتاج وقت أطول لمعالجة هذه الفجوة كلما مضى الوقت.
إذا سألتني عزيزي القارئ ما هي الحلول الممكنة نحو ذكاء اصطناعي عادل وشامل، فالحلول كثيرة أهمها أن نوجد أدوات ذكاء اصطناعي قادرة على إيجاد العنصرية وتبدأ بمعالجتها واستثنائها في خوارزمياتها، وهذه مسؤولية الشركات الكبرى التي تبني نماذج الذكاء الاصطناعي، وثانيًا يجب أن نطور أنظمة ذكاء اصطناعي مبنية على العنصرية فهذه الأنظمة ستطور من نفسها وستكون عدوة للبشرية في قادم الأيام، أيضًا يجب أن يكون هناك تنويع في البيانات فكلما انعكس التنوع في البيانات والتصميم، كلما انخفضت احتمالية انتشار النتائج العنصرية وحققنا الإنصاف المطلوب.
في النهاية يجب القول إن الذكاء الاصطناعي ليس عدوًا بالضرورة، لكنه قد يكون كذلك إذا تركناه يتغذّى على أسوأ ما فينا وأقصد هنا العنصرية.
رابط مختصر