مايكروسوفت تفصل المهندسة المغربية ابتهال أبو السعد والهندية فانيال أغراوال
تاريخ النشر: 8th, April 2025 GMT
#سواليف
قالت وكالة “أسوشييتد برس” الأمريكية إن شركة #مايكروسوفت فصلت موظفتين اثنتين بعد أن قاطعا احتفال الذكرى الخمسين لتأسيس الشركة، احتجاجًا على تعاونها مع #جيش_الاحتلال في مجال #الذكاء_الاصطناعي، بحسب ما نقلته مجموعة تمثل العاملين المحتجين داخل الشركة.
وفصلت شركة “مايكروسوفت” المهندستين المغربية #ابتهال_أبو_السعد والهندية #فانيال_أغراوال بعد احتجاجهما على تزويد الشركة جيش الاحتلال بتكنولوجيا الذكاء الاصطناعي
وأوضحت الوكالة أن الاحتجاج بدأ يوم الجمعة، عندما صعدت مهندسة البرمجيات في مايكروسوفت، إبتِهال أبو سعد، إلى منصة الفعالية بينما كان الرئيس التنفيذي لقسم الذكاء الاصطناعي مصطفى سليمان يتحدث عن رؤية الشركة المستقبلية ومنتجاتها الجديدة في هذا المجال.
وخاطبت أبو سعد سليمان قائلة: “تزعمون أنكم تستخدمون الذكاء الاصطناعي من أجل الخير، بينما تبيع مايكروسوفت تقنيات #أسلحة_ذكاء_اصطناعي للجيش الإسرائيلي”، مضيفة: “خمسون ألف شخص قُتلوا، ومايكروسوفت تساهم في هذه #الإبادة_الجماعية في منطقتنا”.
وأشارت “أسوشييتد برس” إلى أن الاحتجاج تسبب في توقف الحديث، بينما كانت الفعالية تُبث مباشرة من مقر الشركة في ريدموند، واشنطن، بحضور شخصيات بارزة مثل بيل غيتس وستيف بالمر.
ورد سليمان على المتظاهرة بقوله: “شكرًا على احتجاجك، أسمعك”، إلا أن أبو سعد واصلت صراخها، متهمة سليمان و”كل مايكروسوفت” بأن أيديهم ملطخة بالدماء. ثم ألقت بكوفية فلسطينية على المنصة، قبل أن يتم إخراجها من القاعة من قبل الطاقم الأمني.
وبحسب الوكالة، فإن أبو سعد أكدت أنها فقدت القدرة على الدخول إلى حسابات العمل الخاصة بها فورًا بعد الحادثة، ولم تتمكن من تسجيل الدخول مرة أخرى.
وكانت الشركة قد أعلنت في بيان، يوم الجمعة، أنها توفر عدة قنوات للاستماع إلى آراء الموظفين، لكنها تطالب بأن يتم ذلك دون التسبب في تعطيل الأعمال، مؤكدة أنها تطلب من المشاركين المغادرة في حال وقوع أي اضطراب.
ورفضت “مايكروسوفت” في حينه التعليق على ما إذا كانت ستتخذ إجراءات إضافية.
وذكّرت “أسوشييتد برس” بأن الحادثة ليست الأولى من نوعها داخل الشركة، إذ سبق أن تم طرد خمسة موظفين في فبراير الماضي من اجتماع مع المدير التنفيذي ساتيا ناديلا، بعد احتجاجهم على العقود المبرمة مجيش الاحتلال
وفي السياق نفسه، أشارت الوكالة إلى أن عشرات الموظفين في شركة “غوغل” تعرضوا للفصل العام الماضي، عقب احتجاجات داخلية على عقد بقيمة 1.2 مليار دولار يُعرف باسم “مشروع نيمبوس”، والذي يزوّد حكومة الاحتلال تقنيات الذكاء الاصطناعي. وشملت الاحتجاجات اعتصامات داخل مكاتب الشركة في نيويورك وسانيفيل بولاية كاليفورنيا، فيما تقدم الموظفون المفصولون بشكاوى إلى “مجلس العلاقات العمالية الوطنية” في محاولة لاستعادة وظائفهم.
المصدر: سواليف
كلمات دلالية: سواليف مايكروسوفت جيش الاحتلال الذكاء الاصطناعي ابتهال أبو السعد الإبادة الجماعية الذکاء الاصطناعی أبو سعد
إقرأ أيضاً:
خبراء يكشفون خطر الذكاء الاصطناعي على الدماغ
#سواليف
كشفت دراسة حديثة عن #مخاطر محتملة لبرامج الدردشة المدعومة بالذكاء الاصطناعي مثل ChatGPT، حيث قد تشكل تهديدا غير متوقع للصحة العقلية لبعض المستخدمين.
ورصدت الدراسة التي أجراها باحثون من جامعة كينغز كوليدج لندن، ظاهرة جديدة أطلقوا عليها اسم ” #ذهان_الشات_بوت”، حيث قد تساهم هذه التقنية في “طمس حدود الواقع” لدى المستخدمين المعرضين للخطر وتؤدي إلى “ظهور أو تفاقم أعراض ذهانية.
وببساطة، قد يبدأ البعض، خاصة المعرضين نفسيا، في فقدان القدرة على التمييز بين الواقع والمحادثات مع #الذكاء_الاصطناعي بعد استخدام مكثف لهذه البرامج.
مقالات ذات صلةويوضح الدكتور هاميلتون مورين، أحد المشاركين في الدراسة: “نحن لا نتحدث عن خيال علمي هنا. هذه حالات حقيقية يبدأ فيها المستخدمون بتطوير معتقدات وأفكار غير منطقية متأثرة بتفاعلاتهم مع #الذكاء_الاصطناعي”.
وتكمن المشكلة في أن هذه البرامج مصممة لتكون ودودة، متعاطفة، وتجيب على كل الأسئلة بثقة عالية. وهذه الميزات التي تبدو إيجابية، قد تكون خادعة للأشخاص الذين يعانون أساسا من هشاشة نفسية أو استعداد للاضطرابات الذهانية.
ويشير البروفيسور توم بولاك، أحد معدي الدراسة، إلى أن “الذهان لا يظهر فجأة، لكن الذكاء الاصطناعي قد يكون العامل الذي يدفع الشخص الهش نفسيا نحو الحافة”.
في تعليق سابق خلال بودكاست في مايو الماضي، اعترف سام ألتمان، الرئيس التنفيذي لشركة OpenAI، بأن الشركة تواجه صعوبات في وضع ضوابط أمان فعالة لحماية المستخدمين المعرضين للخطر، قائلا: “لم نكتشف بعد كيفية إيصال التحذيرات للمستخدمين الذين يكونون في حالة عقلية هشة وعلى وشك الانهيار الذهاني”.
وفي الوقت الحالي، ينصح الخبراء باستخدام هذه الأدوات بحذر، خاصة من لديهم تاريخ مع الاضطرابات النفسية، مع التأكيد على أن الغالبية العظمى من المستخدمين لا يواجهون مثل هذه المخاطر. لكن الرسالة واضحة: الذكاء الاصطناعي، مثل أي تقنية قوية، يحتاج إلى فهم دقيق لآثاره الجانبية قبل أن يصبح أكثر تعمقا في حياتنا.