14 بيتابايت معلومات وعقد بـ 133 مليون دولار| موظفة ميكروسوفت تفضح الاحتلال في آخر رسائلها
تاريخ النشر: 5th, April 2025 GMT
أثار الموقف البطولي الذي أقدمت عليه موظفة شركة ميكروسوفت ابتهال أبو السعد، ردود فعل عالمية بعدما دافعت عن القضية الفلسطينية ورفضت الاشتراك في الدعم الذي تقدمه شركتها للكيان الإسرائيلي.
وكان انتشر على منصات التواصل الاجتماعي، لقطات فيديو اظهرت احتجاج ابتها أبو السعد خلال المؤتمر السنوي لشركة مايكروسوفت، وحديثها عن حرب غزة وتضامنها مع أطفال فلسطين، إلا أن حسابات موظفة ميكروسوفت على مواقع التواصل الاجتماعي تم غلقها وحظرها وسط مخاوف من تعرضها للخطر بعد موقفها.
وما زاد من الخوف على ابتهال أبو السعد، البريد الإلكتروني الذي ارسلته للموظفين في مايكروسوفت، كاشفة فيه فضائح عن الشركة ودعمها للكيان الإسرائيلي.
تفاصيل رسالة ابتهال أبو السعد الأخيرةوجاء في نص الإيميل: “قد يكون البعض منكم قد شاهد للتو على البث المباشر أو حضر شخصيًا، قمت بمقاطعة كلمة مصطفى سليمان الرئيس التنفيذي للذكاء الاصطناعي في مايكروسوفت، خلال الاحتفال المرتقب بالذكرى الخمسين. أريد أن أوضح لكم سبب قيامي بذلك: أنا اسمي ابتِهال، وأعمل كمهندسة برمجيات في فريق منصة الذكاء الاصطناعي في مايكروسوفت منذ ثلاث سنوات ونصف. قررت التحدث اليوم لأنه بعدما اكتشفت أن فريق عملي يساهم في دعم الإبادة الجماعية لشعبي في فلسطين، شعرت أنه لا يوجد أمامي خيار أخلاقي آخر. كان هذا ضروريًا بشكل خاص بعدما رأيت كيف حاولت مايكروسوفت كبت وإسكات أي اعتراض من زملائي الذين حاولوا إثارة هذه القضية”.
وأضافت ابتهال: “خلال العام والنصف الماضيين، تعرض مجتمعنا العربي والفلسطيني والمسلم في مايكروسوفت للتهميش، والتهديد، والمضايقات، والتشهير، دون أن تتخذ مايكروسوفت أي إجراء. حاول البعض منا التعبير عن آرائه، لكن في أفضل الحالات لم يُستمع إلينا، وفي أسوأها تم فصل موظفين اثنين فقط لأنهم نظموا وقفة تضامنية. لم يكن لدي خيار آخر لجعل صوتنا مسموعًا”.
إبادة جماعية مستمرة بحق الشعب الفلسطينيواستطردت: “خلال العام ونصف الماضي، كنت شاهدة على الإبادة الجماعية المستمرة التي يتعرض لها الشعب الفلسطيني على يد إسرائيل. رأيت معاناة لا توصف وسط الانتهاكات الجماعية لحقوق الإنسان من قبل إسرائيل، بدءًا من القصف العشوائي الذي لا يرحم، واستهداف المستشفيات والمدارس، وصولًا إلى استمرار نظام الفصل العنصري - وكل ذلك أدانته منظمات دولية عديدة مثل الأمم المتحدة والمحكمة الجنائية الدولية ومحكمة العدل الدولية، بالإضافة إلى منظمات حقوق الإنسان”.
وزادت: "لقد تركتني صور الأطفال الأبرياء المغطين بالرماد والدماء، وصرخات الآباء المكلومين، ودمار العائلات والمجتمعات محطمة نفسيًا. حاليًا، استأنفت إسرائيل هجماتها الواسعة على غزة، مما أسفر حتى الآن عن مقتل أكثر من 300,000 من سكان غزة في فترة لا تتجاوز العام ونصف. قبل أيام قليلة، ظهرت تقارير تفيد بأن إسرائيل قتلت خمسة عشر مسعفًا وعامل إنقاذ في غزة، وأعدمتهم "واحدًا تلو الآخر" قبل دفنهم في الرمال - وهي جريمة حرب أخرى تضاف إلى القائمة".
استخدام الذكاء الاصطناعي في المراقبة والقتلوكشفت موظفة ميكروسوفت: "في نفس الوقت، يساهم عملنا في مجال الذكاء الاصطناعي "المسؤول" في تسهيل المراقبة والقتل. وقد خلصت الأمم المتحدة ومحكمة العدل الدولية إلى أن ما يحدث هو إبادة جماعية، بينما أصدرت المحكمة الجنائية الدولية مذكرات اعتقال بحق القادة الإسرائيليين. فعندما انضممت إلى فريق منصة الذكاء الاصطناعي، كنت متحمسة لتطوير تقنيات حديثة يمكنها خدمة الإنسانية، مثل منتجات الوصول، وخدمات الترجمة، وأدوات "تمكين كل إنسان ومنظمة لتحقيق المزيد". لم أكن أعلم أن مايكروسوفت ستبيع عملي للجيش الإسرائيلي بهدف التجسس وقتل الصحفيين والأطباء والعاملين في مجال الإغاثة، بالإضافة إلى المدنيين. لو كنت أعلم أن عملي في تطوير تقنيات النسخ الصوتي سيساهم في التجسس على المكالمات الهاتفية بهدف استهداف الفلسطينيين، لما انضممت لهذا الفريق".
وأضافت: “وفقًا لتقرير من وكالة أسوشيتد برس، يوجد عقد بقيمة 133 مليون دولار بين مايكروسوفت ووزارة الدفاع الإسرائيلية. وقد ازداد استخدام الجيش الإسرائيلي لتقنيات الذكاء الاصطناعي من مايكروسوفت بشكل هائل، حيث تضاعف حجم البيانات المخزنة على خوادم مايكروسوفت ليصل إلى أكثر من 13.6 بيتابايت. إن تقنية Microsoft Azure تُستخدم في جمع المعلومات التي يتم الحصول عليها من المراقبة الجماعية، بما في ذلك المكالمات الهاتفية والرسائل النصية والرسائل الصوتية، وفقًا لضابط استخبارات إسرائيلي”.
أسلحة ذكاء اصطناعي تقتل الأبرياءواختتمت ابتهال رسالتها، قائلة: "هل هذا هو الإرث الذي نريد أن نتركه وراءنا؟ هل يمكننا أن نفخر بالعمل على أسلحة ذكاء اصطناعي تقتل الأبرياء؟ فالصمت هو تواطؤ. لكن حتى الخطوات الصغيرة يمكن أن تحدث فرقًا. بصفتنا موظفين في هذه الشركة، يجب علينا أن نرفع أصواتنا ونطالب مايكروسوفت بإنهاء بيع التكنولوجيا للجيش الإسرائيلي. وإذا كان لديك مخاوف بشأن هذا الموضوع، وترغب في أن يكون عملك أخلاقيًا، أشجعك على اتخاذ الإجراءات التالية: وقّع على عريضة "لا لـ Azure من أجل الفصل العنصري" - نحن نرفض كتابة رموز تقتل.. ابدأ مناقشات مع زملائك حول هذه القضايا - فقد يكون العديد من الموظفين غير مدركين لذلك… تذكر أن سياسة حقوق الإنسان في مايكروسوفت تحمي من الانتقام عند إثارة القضايا المتعلقة بحقوق الإنسان. وآمل أن تُلهم أصواتنا الجماعية قادة الذكاء الاصطناعي لدينا لتصحيح المسار وتجنب ترك إرث ملطخ".
المصدر: صدى البلد
كلمات دلالية: ابتهال أبو السعد ميكروسوفت الذكاء الاصطناعي المزيد الذکاء الاصطناعی فی مایکروسوفت أبو السعد
إقرأ أيضاً:
كم من الأطفال يجب أن يَـقـتُـل الذكاء الاصطناعي؟
في الثامن والعشرين من فبراير 2024، أقـدَمَ سيويل سيتزر الثالث، صبي ذو أربعة عشر ربيعا من فلوريدا، على قتل نفسه تحت إلحاح من إحدى شخصيات الذكاء الاصطناعي الـمُـحاكية للحياة والمولدة بواسطة Character.AI، المنصة التي يُـقال إنها تستضيف أيضا روبوتات دردشة الذكاء الاصطناعي الداعمة لاختلال فقدان الشهية والتي تشجع على أنماط مُـخـتَـلّة في تناول الطعام بين الشباب. من الواضح أن الحاجة ماسة إلى اتخاذ تدابير أكثر قوة لحماية الأطفال والشباب من الذكاء الاصطناعي.
بطبيعة الحال، حتى من الناحية الأخلاقية البحتة، ينطوي الذكاء الاصطناعي على إمكانات إيجابية هائلة، من تعزيز صحة الإنسان وكرامته إلى تحسين الاستدامة والتعليم بين الفئات السكانية المهمشة. لكن هذه الفوائد الموعودة ليست مبررا للاستخفاف بالمخاطر الأخلاقية والتكاليف الواقعية أو تجاهلها. فكل انتهاك لحقوق الإنسان يجب أن يُنظر إليه على أنه غير مقبول أخلاقيا.
فإذا تسبب روبوت دردشة يعمل بالذكاء الاصطناعي ويحاكي الحياة في وفاة مراهق، فلا يجوز لنا أن نعتبر قدرة الذكاء الاصطناعي على الاضطلاع بدور في تطوير الأبحاث الطبية تعويضا عن ذلك. مأساة سيتزر ليست حالة معزولة. ففي ديسمبر الماضي، رفعت عائلتان في تكساس دعوى قضائية ضد Character.AI وداعمتها المالية، شركة جوجل، زاعمة أن روبوتات الدردشة الآلية التابعة للمنصة استغلت أطفالهم في سن المدرسة جنسيا وعاطفيا إلى الحد الذي أسفر عن وقوع حالات إيذاء النفس والعنف. لقد شاهدنا هذا الفيلم من قبل، فقد ضحينا بالفعل بجيل من الأطفال والمراهقين على مذبح شركات التواصل الاجتماعي التي تستفيد من الإدمان على منصاتها. لم ننتبه إلى الأضرار الاجتماعية والنفسية التي تسببها «وسائط التواصل غير الاجتماعي» إلا ببطء شديد.
والآن، بدأت بلدان عديدة تحظر أو تقيد الوصول إلى هذه المنصات، ويطالب الشباب أنفسهم بضوابط تنظيمية أقوى.
ولكن لا يمكننا الانتظار لكبح جماح قوى التلاعب الكامنة في الذكاء الاصطناعي. فبسبب الكميات الهائلة من البيانات الشخصية التي جمعتها منا صناعة التكنولوجيا، بات بوسع أولئك الذين يعملون على بناء منصات مثل Character.AI إنشاء خوارزميات تَـعرِفنا بشكل أفضل مما نعرف أنفسنا. الواقع إن إمكانية الاستغلال عميقة. فالذكاء الاصطناعي يعلم على وجه التحديد أي الأزرار التي ينبغي له الضغط عليها لاستغلال رغباتنا، أو لحملنا على التصويت بطريقة معينة. كانت روبوتات الدردشة المؤيدة لفقدان الشهية على منصة Character.AI مجرد المثال الأحدث والأكثر فظاعة. ولا يوجد أي سبب وجيه قد يمنعنا من حظرها على الفور. لكن الوقت ينفد سريعا، لأن نماذج الذكاء الاصطناعي التوليدي تتطور بشكل أسرع من المتوقع ــ وهي تتسارع في عموم الأمر في الاتجاه الخطأ. يواصل «الأب الروحي للذكاء الاصطناعي»، عالم العلوم الإدراكية الحائز على جائزة نوبل جيفري هينتون، التحذير من أن الذكاء الاصطناعي قد يؤدي إلى انقراض البشر: «أخشى أن اليد الخفية لن تُـبقي علينا سالمين. وعلى هذا فإن ترك الأمر برمته لدافع الربح الذي يحرك الشركات الكبرى لن يكون كافيا للتأكد من تطويرها إياه بأمان. الشيء الوحيد الذي قد يجبر هذه الشركات الكبرى على إجراء مزيد من الأبحاث حول السلامة هو التنظيم الحكومي».
ونظرا لفشل شركات التكنولوجيا الكبرى المستمر في الالتزام بالمعايير الأخلاقية، فمن الحماقة أن نتوقع من هذه الشركات أن تضبط نفسها بنفسها. في عام 2024، ضخت شركة جوجل استثمارات قيمتها 2.7 مليار دولار في تطبيق Character.AI، على الرغم من مشاكله المعروفة. ولكن على الرغم من الاحتياج الواضح إلى التنظيم، فإن الذكاء الاصطناعي ظاهرة عالمية، وهذا يعني أننا يجب أن نسعى جاهدين إلى وضع تنظيم عالمي، يرتكز على آلية إنفاذ عالمية جديدة، مثل وكالة دولية للأنظمة القائمة على البيانات (IDA) في الأمم المتحدة، كما اقترحتُ شخصيا.
إن كون الشيء في حكم الممكن لا يعني أنه مرغوب. يتحمل البشر مسؤولية تحديد أي التكنولوجيات والإبداعات وأشكال التقدم يجب تحقيقها وتوسيع نطاقها، وأيها لا ينبغي له أن يتحقق. وتقع على عاتقنا مسؤولية تصميم، وإنتاج، واستخدام، وإدارة الذكاء الاصطناعي بطرق تحترم حقوق الإنسان وتسهل تحقيق مستقبل أكثر استدامة للبشرية والكوكب. يكاد يكون من المؤكد أن سيويل كان ليظل على قيد الحياة لو كنا نعتمد على تنظيم عالمي لتعزيز «الذكاء الاصطناعي» القائم على حقوق الإنسان، ولو كنا أنشأنا مؤسسة عالمية لمراقبة الإبداعات في هذا المجال. يستلزم ضمان احترام حقوق الإنسان وحقوق الطفل حوكمة دورة حياة الأنظمة التكنولوجية بأكملها، بدءا من التصميم والتطوير إلى الإنتاج، والتوزيع، والاستخدام. وبما أننا نعلم بالفعل أن الذكاء الاصطناعي من الممكن أن يَـقـتُـل، فليس لدينا أي عذر يسمح لنا بالبقاء مكتوفي الأيدي في حين يستمر تقدم التكنولوجيا، مع إطلاق مزيد من النماذج غير المنظمة للجمهور كل شهر. مهما كانت الفوائد التي قد توفرها هذه التكنولوجيات يوما ما، فإنها لن تكون قادرة أبدا على التعويض عن الخسارة التي عانى منها بالفعل جميع من أحبوا سيويل.
بيتر ج. كيرششلاغر، أستاذ الأخلاق ومدير معهد الأخلاقيات الاجتماعية (ISE) في جامعة لوسيرن، وأستاذ زائر في المعهد الفدرالي السويسري للتكنولوجيا في زيورخ (ETH Zurich).