اتهامات لعمالقة الذكاء الاصطناعي بالتورط مع إسرائيل بإبادة غزة
تاريخ النشر: 4th, April 2025 GMT
اتهمت خبيرة الذكاء الاصطناعي، هايدي خلاف، الجيش الإسرائيلي باستخدام تطبيقات ذكاء اصطناعي خلال هجماته على قطاع غزة، بالتعاون مع شركات تكنولوجية كبرى مثل غوغل ومايكروسوفت وأمازون، مما قد يجعل هذه الشركات شريكة في جرائم حرب، ومن شأنه تطبيع القتل الجماعي للمدنيين وتوجيه اللوم إلى الخوارزميات.
وحذرت الخبيرة خلاف، وهي مهندسة أمن نظم سابقة في شركة "أوبن إيه آي" المطورة لتطبيق شات جي بي تي ومستشارة في معهد "الآن للذكاء الاصطناعي"، من مخاطر استخدام الذكاء الاصطناعي الذي قد يتسم بعدم الدقة.
وأضافت -في حديث لوكالة الأناضول- "إذا ثبت أن الجيش الإسرائيلي ارتكب جرائم حرب محددة، وكانت شركات التكنولوجيا قد ساعدته في تنفيذها، فإن ذلك يجعلها شريكة في الجريمة".
وأوضحت أن الجيش الإسرائيلي اعتمد في غزة على أنظمة ذكاء اصطناعي مثل "حبسورا" (البشارة)، و"لافندر" لأغراض تشمل المراقبة الجماعية، وتحديد الأهداف، وتنفيذ هجمات استهدفت عشرات الآلاف من المدنيين، في حين تقول منظمات حقوق الإنسان وخبراء إن هذه الأنظمة ساهمت في تنفيذ هجمات واسعة أدّت إلى مقتل الآلاف دون تمييز.
تحت عنوان "سياسات مواقع التواصل الاجتماعي كجزء من سياسات الإبادة.. أبرز الانتهاكات المرصودة".. مركز "صدى سوشال" الفلسطيني غير الحكومي ينشر تقريرا يشير إلى تصاعد الانتهاكات الرقمية والتعديات الإسرائيلية على خصوصية المستخدمين الفلسطينيين وبياناتهم
للمزيد: https://t.co/76Tp1EtTmf pic.twitter.com/veo1yIOdOm
— Aljazeera.net • الجزيرة نت (@AJArabicnet) July 9, 2024
إعلانوحذرت الخبيرة خلاف من أن استخدام نماذج الذكاء الاصطناعي، المعروفة بعدم دقتها، سوف تدفع نحو تطبيع لحالات القتل الجماعي للمدنيين، كما جرى في غزة، قائلة "إنها معادلة خطيرة، وقتئذ سوف تلجأ الجيوش إلى تبرئة نفسها بالقول إن الخوارزمية هي من قررت، ونحن لم نفعل شيئًا".
وأشارت إلى أن إسرائيل استخدمت الذكاء الاصطناعي في كل مرحلة تقريبا من مراحل الهجمات التي شنتها على غزة، بدءا من جمع المعلومات الاستخبارية، وصولا إلى اختيار الأهداف النهائية، اعتمادا على بيانات متنوعة تشمل صورا فضائية، ومعلومات اتصالات تم اعتراضها، وتعقب مجموعات أو أفراد.
كما ذكرت أن تطبيقات مثل "جيميناي" من غوغل، و" شات جي بي تي" من "أوبن إيه آي"، تُستخدم للوصول إلى أنظمة الاتصالات الفلسطينية وترجمة المحادثات، مشيرة إلى أن الأشخاص يُدرجون في قوائم الأهداف فقط بناء على كلمات مفتاحية.
وأشارت الخبيرة إلى أن الجيش الإسرائيلي لا يتحقق من صحة الأهداف التي يحددها الذكاء الاصطناعي، وقالت: "للأسف، تشير التقييمات إلى أن دقة بعض هذه الأنظمة قد تكون منخفضة بنسبة تصل إلى 25% فقط".
وحذّرت من أن استهداف شخص واحد عبر الذكاء الاصطناعي دون الاكتراث بسقوط مدنيين آخرين يُقارب في خطورته القصف العشوائي، مشددة على أن هذا النوع من "الأتمتة الخاطئة" يحمل أخطارا جسيمة.
وأوضحت أيضا أن التحقق من أهداف الذكاء الاصطناعي يتم بطريقة سطحية جدا، مما يُثير الشكوك حول مدى جدية السعي لتقليل الخسائر المدنية.
وأضافت أن "الذكاء الاصطناعي يُطبع الاستهداف الخاطئ ويخلق سابقة خطيرة، وبسبب حجم وتعقيد هذه النماذج، يصبح من المستحيل تتبّع قراراتها أو تحميل أي طرف المسؤولية".
وقالت الخبيرة خلاف إن العالم يشهد اتجاها متسارعا نحو أنظمة استهداف آلية بالكامل، دون رقابة قانونية أو محاسبة، وإن "هذا التوجه يحظى بدعم من إسرائيل ووزارة الدفاع الأميركية والاتحاد الأوروبي".
إعلانوشددت على أن غياب الحظر القانوني الواضح على تقنيات الذكاء الاصطناعي العسكرية يشكل ثغرة خطيرة لم تُعالج حتى الآن، مؤكدة أن الإطارين القانوني والتقني غير جاهزين لخوض حروب قائمة على الذكاء الاصطناعي.
وتابعت: "إذا كان من الصعب تتبّع كيفية تسبب الذكاء الاصطناعي في سقوط ضحايا مدنيين، فيمكننا تخيل سيناريو يُستخدم فيه الذكاء الاصطناعي بشكل مكثف للتهرب من المسؤولية عن مقتل أعداد كبيرة من المدنيين".
شراكة علنيةوأشارت الخبيرة خلاف إلى أن شركات التكنولوجيا الأميركية، وعلى رأسها غوغل وأمازون، قدّمت منذ عام 2021 خدمات ذكاء اصطناعي وسحابة حوسبة للجيش الإسرائيلي.
ولفتت إلى أن هذا النوع من التعاون "ليس تيارا جديدا"، موضحة أن التعاون توسّع بعد أكتوبر/تشرين الأول 2023، مع اعتماد إسرائيل المتزايد على خدمات السحابة والنماذج والتقنيات من مايكروسوفت.
كما نوّهت إلى أن شركات مثل "بالانتير للتكنولوجيا" على ارتباط بالعمليات العسكرية الإسرائيلية، وإن كانت التفاصيل بشأن هذا التعاون محدودة وغير معلنة، مشيرة إلى أن من المهم أن نُدرك أن الجيش الإسرائيلي لا يكتفي بشراء خدمات جاهزة، بل يدمجها مباشرة في تطبيقات عسكرية.
وأكدت أن شركات مثل أمازون وغوغل ومايكروسوفت تعلم تماما مدى خطورة استخدام هذه النماذج، ومستوى دقتها، والمخاطر المرتبطة بكيفية استخدامها من قبل الجيش الإسرائيلي، ورغم ذلك "فهي لا تتوانى عن التعاون مع الجانب الإسرائيلي بشكل علني".
وقالت إن هذه الشركات قدّمت تسهيلات مباشرة للجيش الإسرائيلي كي يستخدم أنظمة الذكاء الاصطناعي في مجالي الاستهداف والاستخبارات، مؤكدة "إذا ثبت أن الجيش الإسرائيلي ارتكب جرائم حرب محددة، وكانت شركات التكنولوجيا قد ساعدته في تنفيذها، فإن ذلك يجعلها شريكة بشكل واضح في الجريمة".
وتأتي هذه الاتهامات الجديدة، في ظل ما ذكرته تقارير مرارا بشأن أن الحرب التي تشنها إسرائيل على قطاع غزة قدمت نموذجا مجسدا للسياسات التي تنتهجها شبكات التواصل الاجتماعي للتأثير في الرأي العام العالمي ودفعه إلى تقبل الحرب على القطاع، مكملة بذلك أدوات الحرب عبر الفضاء الرقمي.
إعلانوبالتوازي مع الحرب المدمرة على أرض الواقع في قطاع غزة، يخوض الاحتلال الإسرائيلي والقوى الداعمة له حربا على المحتوى الفلسطيني بشبكات التواصل الاجتماعي في العالم الافتراضي.
ويترافق هذا مع مواصلة إسرائيل منذ 7 أكتوبر/تشرين الأول 2023 حرب إبادة بغزة خلفت أكثر من 165 ألف شهيد وجريح من الفلسطينيين، معظمهم أطفال ونساء، وما يزيد على 11 ألف مفقود.
المصدر: الجزيرة
كلمات دلالية: حريات أن الجیش الإسرائیلی الذکاء الاصطناعی إلى أن
إقرأ أيضاً:
الذكاء الاصطناعي.. أداة للتمكين أم بديل يُضعف التفكير؟
في ظل تسارع وتيرة التكنولوجيا وتوسع تطبيقات الذكاء الاصطناعي لتشمل مختلف جوانب الحياة، يبرز تساؤل جوهري: هل أصبح الذكاء الاصطناعي بديلاً عن التفكير البشري؟ وهل باتت الأجيال الناشئة تعتمد عليه اعتمادًا يُهدد قدراتها الذهنية؟
فمع تزايد استخدام أدوات مثل "GPT" للحصول على المعلومات وحلول المشكلات، لم يعد الجهد الذهني مطلبًا ضروريًّا لدى كثير من المستخدمين، صغارًا وكبارًا. وأصبح الوصول السهل والفوري للمعرفة سببًا في تراجع عمليات التحليل والتفكير النقدي، خصوصًا بين المراهقين والشباب.
الاستطلاع الذي أجريناه رصد تباينًا في وجهات النظر حيال هذه الظاهرة، لكنه كشف بوضوح عن اعتماد متزايد على الذكاء الاصطناعي لتلبية مختلف الاحتياجات المعرفية واليومية، وهو ما يثير مخاوف التربويين والأسر من تحول هذه التقنيات من أدوات مساعدة إلى بدائل تُغني عن الجهد العقلي.
ويرى مختصون أن المشكلة لا تكمن في التقنية ذاتها، بل في طريقة استخدامها. فالذكاء الاصطناعي -إذا أُحسن توظيفه- يمكن أن يكون داعمًا قويًّا لتعزيز التفكير والتحليل، لا بديل عنهما. ومن هنا تبرز أهمية توعية النشء بكيفية استخدام هذه الأدوات بشكل متوازن، وتشجيعهم على التفكير المستقل، بما يعزز مهاراتهم الذهنية بدل أن يُضعفها.
الاستطلاع طرح تساؤلات مهمة: إلى أي مدى يعتمد الأفراد على الذكاء الاصطناعي في حياتهم اليومية؟ وما دور الأسرة في ضبط هذا الاستخدام، خاصة لدى الأبناء الذين باتوا يطلبون الإجابات الجاهزة لكل كبيرة وصغيرة؟
أسئلة مفتوحة على نقاش واسع، في وقت لم يعد فيه الذكاء الاصطناعي ترفًا، بل واقعًا يفرض إعادة النظر في أساليب التعليم والتفكير.
معلم ذكي
تصف ثراء أسعد محمد علاقتها بالذكاء الاصطناعي بقولها: "هو معلمي الذكي ورفيقي في اتخاذ القرارات". وتضيف أنها تعتمد عليه بكثافة سواء في دراستها أو في شؤون حياتها اليومية والمهنية، حيث تراه أداة مساعدة متاحة دائمًا حتى في ساعات الليل المتأخرة.
وتوضح أنها تبدأ عادة بالتفكير الذاتي، ثم تقارن استنتاجاتها بما يقدمه الذكاء الاصطناعي، لتصل في النهاية إلى قرار "أكثر اتزانًا ومنطقية".
وترى ثراء أن الذكاء الاصطناعي يمتلك قدرة على التفكير المستقل بشكل يشبه الإنسان، خاصة في قدرته على فهم السياق وتحليل المعلومات بشكل منطقي. وتشير إلى أن أحد أبرز تفوقاته هو الموضوعية، إذ يساعد المستخدمين في رؤية الأمور من زوايا متعددة قد لا ينتبه لها الإنسان الذي يتأثر غالبًا بعواطفه أو تجاربه الشخصية.
تطوير التفكير
من جانبها، تؤكد مريم بنت أحمد الكيومية أن الذكاء الاصطناعي كان له أثر إيجابي مباشر في تحسين مستواها الدراسي، حيث تستخدمه لفهم الدروس وحل التمارين في الوقت الذي يناسبها، مما خفف من اعتمادها على المعلمين والدروس الخصوصية.
تقول: "طريقة شرحه سلسة ودقيقة، وكان له دور في رفع درجاتي الدراسية".
وعند اتخاذ القرارات، تعتمد مريم أيضًا على الجمع بين التفكير الذاتي أولًا، ثم استخدام الذكاء الاصطناعي للمقارنة والتمحيص، وتؤمن أنه لا يقلل من قدراتها، بل على العكس يعينها على ملاحظة أمور كانت تغفل عنها سابقًا. وتضيف: "ساعدني في تطوير طريقة تفكيري، لا في طمسها".
وترى أن الفرق الأساسي يكمن في اتساع أفق التحليل لدى الذكاء الاصطناعي مقارنة بالرؤية المحدودة التي قد تصاحب التفكير البشري، خاصة في حالات التشويش أو ضيق الأفق أو غياب البيانات الكافية.
بين المساندة والاستغناء
من خلال هذه الآراء، يتضح أن الذكاء الاصطناعي لا يزال في نظر العديد من الشباب أداة تعزز الفهم وتنظم التفكير، لكنه في الوقت ذاته يحمل احتمالية أن يتحول -إن أُفرط في استخدامه- إلى بديل يهدد المهارات العقلية المستقلة.
وإذا كان بعض المستخدمين يتعاملون معه بوعي واتزان، فإن التحدي الأكبر يظل في بناء ثقافة تضمن الاستخدام المسؤول لهذه الأدوات، بما يحافظ على القدرات الذهنية، ويُبقي على التفكير النقدي والتحليلي كعنصر أصيل في حياة الجيل الجديد.
وتتعدد دوافع الاعتماد على الذكاء الاصطناعي لدى المستخدمين، بين من يراه وسيلة لتوفير الوقت والجهد، ومن يخشى أن يتحوّل مع الزمن إلى أداة تُضعف القدرات الذهنية وتُعوّق التفكير المستقل.
السرعة والمنطق
ترى تقى بنت قاسم الذهلية أن الذكاء الاصطناعي يؤدي دورًا مهمًّا في مساعدتها على اتخاذ القرارات وإيجاد الحلول، وتُرجع ذلك إلى ما توفره التقنية من سرعة في توليد الأفكار، واقتراحات منطقية وجديدة، الأمر الذي يمثّل اختصارًا فعّالًا للوقت.
لكنها رغم اعتمادها عليه، تؤكد أنه لا يمتلك قدرة حقيقية على "التفكير المستقل"؛ لأن نتائجه تقوم على بيانات مصدرها البشر أنفسهم.
وترى الذهلية أن الذكاء الاصطناعي يتفوق على التفكير الذاتي في معالجة القضايا العلمية المعقدة والبيانات الرقمية، حيث يبتعد عن التأثيرات العاطفية التي تضعف أحيانًا قرارات الإنسان. وتشير إلى نقاط ضعف في التفكير البشري مثل التعب، والانحياز العاطفي، والقصور في التعامل مع البيانات الكبيرة، وهي ثغرات يسدها الذكاء الاصطناعي بدقة وموضوعية.
"الإعاقة الذهنية"
أما عائشة بنت عبدالله البلوشية فتعبّر عن تخوّفها من الاعتماد المفرط على الذكاء الاصطناعي، وتقول إنها لا تلجأ إليه إلا في حالات محددة، خصوصًا إذا كانت المسألة علمية أو تحتاج إلى تحليل بعيد عن التأثيرات العاطفية.
لكنها في المقابل، تُبدي تحفظًا واضحًا تجاه استخدامه المكثف، وتوضح: "أحاول تجنب استخدامه حتى لا أقع في فخ الإعاقة الذهنية، فالذكاء الاصطناعي من صنع البشر، ومحتواه معتمد في الأساس على ما يُغذيه به المستخدمون، وله دورة حياة تنتهي بإعادة البرمجة والتحديث".
وتحذّر البلوشية من أن الاعتماد الزائد على الذكاء الاصطناعي يؤدي إلى تراجع المهارات الفكرية لدى الإنسان، مشيرة إلى أن الطبيعة البشرية تميل دائمًا إلى البحث عن الحلول السهلة، والذكاء الاصطناعي وفّر تلك السهولة إلى حد الاستحواذ على العقول، مما أدى في رأيها إلى "خمول ذهني" وعدم استغلال القدرات العقلية الذاتية بالشكل الأمثل.
يرى زهير بن عوض العجمي أن الذكاء الاصطناعي يشكل أداة قوية في دعم اتخاذ القرار وتحليل البيانات، خاصة في مجالات مثل التخطيط والتنبؤ وتحسين الكفاءة.
لكنه يُصر على أن هذه التقنية تبقى وسيلة مساعدة وليست بديلاً عن التفكير البشري. ويقول: "الذكاء الاصطناعي لا يملك وعيًا ولا ضميرًا أخلاقيًّا. إنه لا يتخذ قرارات مبنية على قيم إنسانية، بل على أنماط مستخلصة من بيانات سابقة".
ويؤكد أن قوة الذكاء الاصطناعي تظهر بوضوح في إزالة التحيّزات العاطفية من بعض القرارات مثل التوظيف أو تقييم المخاطر. لكن في المقابل، يتميز التفكير البشري بالقدرة على التأمل القيمي والإبداع والمرونة. ويختم بالتحذير من مغبة الاعتماد الزائد، الذي قد يؤدي إلى تآكل مهارات التفكير النقدي لدى الجيل الجديد.
التفكير الذاتي
أما رزان بن طارق الهنائية، فتتخذ موقفًا أكثر تحفظًا تجاه الذكاء الاصطناعي، إذ تقول إنها لا تعتمد عليه كثيرًا، وتفضل استخدام قدراتها الذهنية، رغم إدراكها أن نتائج الذكاء الاصطناعي قد تكون أكثر منطقية أحيانًا.
وتضيف: "تفكيري الذاتي هو ما يصقل عقلي ويؤهلني لمواجهة تحديات الحياة... لا أريد أن أضيع تلك الفرصة باعتمادي على تقنية جاهزة".
وترى رزان أن الذكاء الاصطناعي يمكن أن يُستخدم كمرجع مساعد، لتوضيح الإيجابيات والسلبيات فقط، وليس لاتخاذ قرارات نهائية. وتقرّ بأن له قدرة فائقة في معالجة المعلومات "الحقائقية"، خاصة في حالات التعب أو ضيق الأفق، لكنها تحذّر من خطورة الاعتماد الكلي عليه.
الحسم للعقل البشري
من جانبه، يصف نبيل بن محمد اللواتي اعتماده على الذكاء الاصطناعي بـ"المتزن"، مؤكدًا أنه أداة فعالة في تحليل البيانات التقنية والإدارية، لكنه يحرص على أن يكون القرار النهائي إنسانيًّا يأخذ في الاعتبار الجوانب العاطفية والثقافية والدينية.
ويقول: "الذكاء الاصطناعي لا يفكر بمعناه الكامل، بل يعمل بخوارزميات رياضية مبنية على بيانات. قد يُظهر إبداعًا في الظاهر، لكنه يفتقر للنية والوعي والمشاعر".
ويُعدد اللواتي حالات يتفوق فيها الذكاء الاصطناعي على التفكير الذاتي مثل، تحليل البيانات الضخمة، والتشخيص الطبي المعتمد على الصور، والتنبؤ بالمخاطر المالية، وكتابة النصوص التلقائية، والمقارنات التفصيلية.
لكنه يُشير إلى أن الذكاء الاصطناعي يعاني من ضعف في فهم القيم وعدم القدرة على ربط المعلومات ذات الأبعاد الأخلاقية والوجدانية، وهو ما يُشكل جوهر الفكر البشري.
بين الدعم والتحديات
وفي سياق الحديث عن أثر الذكاء الاصطناعي على عمليات التفكير واتخاذ القرار، لا يمكن تجاهل البعد النفسي والاجتماعي لهذا التطور التقني المتسارع. سهير العامرية، أخصائية نفسية بوزارة التربية والتعليم ومدربة دولية، تؤكد أن الذكاء الاصطناعي بات يسهم بشكل فعّال في تحسين جودة الحياة على مستويات عدّة، لكنه يحمل في طياته أيضًا تحديات نفسية واجتماعية قد تؤثر في الأفراد والمجتمعات إذا لم يُستخدم بوعي.
مساهمات إيجابية
توضح العامرية أن الذكاء الاصطناعي يوفر أدوات ذكية تسهّل الحياة اليومية، من بينها تحسين الوصول إلى المعلومات والدعم الشخصي السريع، وتعزيز الاستقلالية في المهام اليومية خاصة لكبار السن وذوي الإعاقة، ورفع كفاءة العمل والتعلم والرعاية الصحية من خلال تقنيات تساعد في إدارة الوقت وإنجاز المهام بشكل أفضل.
وفي الجانب الصحي، تبرز أدوار متعددة للذكاء الاصطناعي منها الصحة النفسية: كأدوات لمراقبة القلق والاكتئاب عبر تحليل سلوك المستخدم على الهواتف ووسائل التواصل، ودعم نفسي مباشر: مثل روبوتات المحادثة (كـ Woebot) التي تقدم إرشادات سلوكية يومية بأسلوب علمي، والصحة الجسدية: من خلال التشخيص المبكر عبر قراءة الصور الطبية، وتتبع الحالة الصحية باستخدام الساعات الذكية وتطبيقات النوم والتغذية، إضافة إلى خدمات طبية مخصصة تعتمد على تحليل بيانات المستخدم.
تحديات مقلقة
إلى جانب الفوائد، تحذر العامرية من آثار سلبية محتملة للاستخدام المكثف وغير الواعي للذكاء الاصطناعي، أبرزها العزلة الاجتماعية: نتيجة الاعتماد المفرط على الأجهزة الذكية وضعف التفاعل البشري، والقلق التقني، خاصة في ما يتعلق بالخوف من فقدان السيطرة على أنظمة الذكاء الاصطناعي أو عدم فهم كيفية عملها، والإرهاق الذهني بسبب التعامل المستمر مع توصيات أو نتائج غير متوقعة، والاعتمادية النفسية، حيث قد يفقد الفرد القدرة على اتخاذ قراراته بشكل مستقل دون الرجوع إلى الخوارزميات.
الاستخدام السلبي
وللوقاية من الآثار النفسية والمعلومات المضللة، توصي العامرية بعدة خطوات منها تعزيز الوعي الرقمي عبر الالتحاق بدورات وورش لفهم آلية عمل الذكاء الاصطناعي، والتحقق من المعلومات وعدم الاعتماد التلقائي على النتائج أو التوصيات، وضبط الخصوصية الرقمية من خلال مراجعة إعدادات التطبيقات الذكية وتحديد البيانات التي تتم مشاركتها، واستخدام أدوات الأمان مثل برامج منع الإعلانات وVPN، والإبلاغ عند وجود اختراقات أو استخدام غير آمن للتطبيقات والخدمات الذكية.
ما بين الاستخدام المسؤول والدخول في دوامة الاعتمادية النفسية، تبقى العلاقة مع الذكاء الاصطناعي خاضعة لمعادلة دقيقة من الوعي، والتعليم، والرقابة الذاتية.
ففي النهاية، ما يُقرر إن كان الذكاء الاصطناعي أداة تمكين أم عائقًا ذهنيًّا، هو طريقتنا في استخدامه ومدى قدرتنا على حماية تفكيرنا وصحتنا النفسية من آثاره الجانبية.