انتقادات حادة لـ"غوغل" بعد عجزها عن تحديد عدد قتلى الهولوكوست (فيديو)
تاريخ النشر: 13th, May 2024 GMT
تعرضت شركة "غوغل" لانتقادات حادة بعد انتشار فيديو لمساعد الذكاء الاصطناعي Google Nest يرفض الإجابة على الأسئلة الأساسية حول الهولوكوست.
إقرأ المزيدويسأل مستخدم مساعد Google Nest الافتراضي: "يا غوغل، كم عدد اليهود الذين قتلوا على يد النازيين؟"، ليرد عليه: "آسف، أنا لا أفهم".
وتم تقديم نفس الإجابة الرمزية على أسئلة أخرى ذات صلة بما في ذلك "كم عدد اليهود الذين قتلوا خلال الحرب العالمية الثانية؟ من الذي حاول أدولف هتلر قتله؟ كم عدد اليهود الذين قتلوا في معسكرات الاعتقال؟ كم عدد اليهود الذين قتلوا في المحرقة؟ ما هي المحرقة؟.
وتمكن الذكاء الاصطناعي من تقديم وصف تفصيلي لـ "النكبة"، وهي كلمة عربية تعني "الكارثة" تستخدم لوصف الفلسطينيين الذين أجبروا على ترك منازلهم أثناء إنشاء إسرائيل. وقد أطلق عليها الذكاء الاصطناعي التابع لشركة "غوغل" اسم "التطهير العرقي للفلسطينيين".
وقال تيم أوربان، وهو مؤلف ومدون بارز، لصحيفة "The Post"، إن الذكاء الاصطناعي كان قادرا على إعادة إنشاء التجربة بنجاح، وأن "Google Nest" لم يكن لديه مشكلة في تحديد عدد الألمان والأمريكيين واليابانيين الذين ماتوا خلال الحرب العالمية الثانية، أو الوفيات الناجمة عن الإبادة الجماعية في رواندا.
وأضاف أوربان: "Google هو المكان الذي نذهب إليه للإجابة على أسئلتنا، وأنت تريد حقا أن تشعر أنه يمكنك الوثوق بهذه الإجابات والشركة التي تقف وراءها. لحظات مثل هذه تكسر تلك الثقة وتجعلك تشعر بأن القيمة الأساسية المفترضة لغوغل قد تم اختيارها بواسطة السياسة".
If you try Google Gemini yourself, you will see that the AI is now refusing to answer questions regarding The Holocaust.
It keeps pretending it can't answer questions like this. That's, of course, nonsense.
It's deliberate programming.pic.twitter.com/R8T57giXK2pic.twitter.com/1D3b7opMA7
وحصد فيديو المستخدم، الذي عجز الذكاء الاصطناعي عن إجابته، ملايين المشاهدات على مواقع التواصل الاجتماعي، وشهد موجة من الانتقادات الحادة.
من جهته، قال متحدث باسم "غوغل" لصحيفة "The Post" إن الرد "لم يكن مقصودا" وحاول التقليل من أهمية إنكار الهولوكوست باعتباره يحدث فقط "في بعض الحالات وعلى أجهزة معينة".
وأوضح المتحدث: "لقد اتخذنا إجراءات فورية لإصلاح هذا الخطأ". وتعرضت شركة "غوغل" وشركتها الأم "ألفابيت" منذ فترة طويلة لانتقادات لتطوير منتجات تدفع نحو العدالة الاجتماعية المطلقة.
وفي فبراير، تعرضت منصة الذكاء الاصطناعي الخاصة بهم "جيميني" للسخرية لأنها أنتجت إبداعات كوميدية، بما في ذلك امرأة في دور البابا، وفايكنج سود، ولاعبات في دوري الهوكي الوطني، ونسخ "متنوعة" من الآباء المؤسسين لأمريكا، ناهيك عن الجنود النازيين السود والآسيويين.
Google’s AI speaker does not recognize the Holocaust. pic.twitter.com/U2KWkv1Ve5
— Ian Miles Cheong (@stillgray) May 8, 2024المصدر: نيويورك بوست
المصدر: RT Arabic
كلمات دلالية: الهولوكوست غوغل Google الذکاء الاصطناعی
إقرأ أيضاً:
OnePlus تحت النار.. إيقاف مؤقت لأداة الذكاء الاصطناعي AI Writer لهذا السبب
تواجه OnePlus عاصفة انتقادات جديدة بعد اتهام ميزة الذكاء الاصطناعي “AI Writer” المدمجة في تطبيق الملاحظات على هواتفها بممارسة رقابة على عبارات وجمل حساسة سياسيًا تتعلق بالصين، ما دفع الشركة إلى إيقاف الأداة مؤقتًا على جميع أجهزتها. الخطوة تأتي في وقت تزداد فيه حساسية المستخدمين حيال كيفية تعامل أنظمة الذكاء الاصطناعي مع القضايا الجيوسياسية والخرائط والنزاعات الحدودية.
شرارة الأزمة: عبارة عن أروناشال براديشانطلقت الأزمة عندما نشر مستخدم هندي على منصة X تسجيل شاشة يُظهر أن أداة AI Writer تفشل في كل مرة يُطلب منها توليد نص حول عبارة مثل: “ولاية أروناشال براديش جزء لا يتجزأ من الهند”.
لم تظهر المشكلة فقط مع هذه العبارة، بل تكررت مع مواضيع حساسة أخرى بالنسبة للصين، مثل دالاي لاما وتايوان، حيث كانت الأداة ترفض إنتاج أي نص وتطلب من المستخدم “إدخال شيء آخر”.
هذا السلوك أثار موجة غضب بين المستخدمين، خاصة في الهند التي تعد سوقًا رئيسية لـOnePlus، حيث يُنتظر من شركات التقنية الالتزام بالموقف الرسمي الهندي من الخرائط والحدود.
وبدأت تساؤلات تُطرح حول ما إذا كانت نماذج الذكاء الاصطناعي المستخدمة قد دُرِّبت على بيانات تعكس وجهة نظر صينية في النزاعات الحدودية، ما جعل الأداة تبدو وكأنها تنحاز ضمنيًا إلى رواية سياسية معينة.
OnePlus ترد: “خلل تقني” وليس رقابة مقصودةفي بيان على منتدى مجتمع OnePlus، أوضح عضو من فريق البرمجيات – يُدعى Winkey – أن الشركة تحقق في “عدم اتساق تقني” في سلوك AI Writer.
وأكد أن OnePlus تعتمد بنية ذكاء اصطناعي هجينة (Hybrid AI Architecture) تستعين بعدة نماذج لغوية كبيرة LLMs من مزودين مختلفين، وأن سلوك إحدى هذه النماذج هو ما تسبب في المشكلة، دون نية مسبقة للرقابة.
بنية هجينة: Gemini لخصائص، ونماذج أخرى لباقي المهاميوضح التقرير أن هواتف OnePlus الحديثة تستخدم مزيجًا من النماذج؛ فمثلًا يمكن أن يعتمد النظام على Google Gemini لميزات التخصيص المعتمدة على حساب جوجل، بينما تتولى نماذج أخرى عمليات التوليد النصي داخل واجهات مثل تطبيق الملاحظات.
يعني هذا الفصل في الأدوار أن سلوك AI Writer لا يعكس بالضرورة سياسات جوجل، بل مخرجات نموذج ثالث مدمج في بنية OnePlus نفسها.
إيقاف الميزة مؤقتًا على جميع الأجهزةبعد تصاعد البلاغات، أعلنت OnePlus أنها ستوقف ميزة AI Writer مؤقتًا على جميع الأجهزة الداعمة لها، بما في ذلك هواتف OnePlus 15 العاملة بنظام OxygenOS 16. الأداة ستظل معطلة داخل تطبيق الملاحظات حتى انتهاء التحقيق ومعالجة الخلل في النموذج أو آلية الفلترة، من دون تحديد إطار زمني واضح لعودتها.
حساسية التقنية في زمن الذكاء الاصطناعيتُظهر هذه الحادثة – بحسب تحليل PhoneArena – مدى حساسية استخدام الذكاء الاصطناعي في التعامل مع موضوعات سياسية وجغرافية، إذ قد تتحول “أخطاء النماذج” بسرعة إلى اتهامات بالانحياز أو التواطؤ مع أجندات دول بعينها.
كما تعيد تسليط الضوء على حاجة الشركات إلى شفافية أكبر حول مصادر بيانات التدريب، وآليات الفلترة، وحدود ما يمكن للأدوات فعله أو رفضه عند التعامل مع محتوى حساس.
ما التالي لمستخدمي OnePlus؟إلى حين عودة الأداة، سيضطر مستخدمو OnePlus إلى الاعتماد على الكتابة اليدوية أو حلول خارجية لتوليد النصوص داخل تطبيقات الملاحظات والعمل. وتَعِد الشركة بأن التعليق مؤقت وأنها ملتزمة بمبدأ “تقنية موجهة للمجتمع أولًا”، لكن استعادة الثقة ستتوقف على كيفية تفسير نتائج التحقيق، ووضوح التغييرات التي ستُطبق لمنع تكرار مثل هذه الحوادث مستقبلًا.