بعد صورة الأب المؤسس لأميركا.. غوغل تتخذ قرارا بِشأن جيميني
تاريخ النشر: 25th, February 2024 GMT
علقت شركة "غوغل" خاصية إنشاء صور للأشخاص بواسطة أداة الذكاء الاصطناعي التوليدية "جيميني" الخاصة بها، وذلك بعد موجة من الانتقادات والاتهامات بأنها تتحيز بمواجهة البيض، بحسب واشنطن بوست.
ويهدف "جيميني" إلى التنافس مع نموذج "تشات جي بي تي"، الخاص بشركة "أوبن إيه أي" OpenAI، الذي أحدث ثورة في عالم الذكاء الاصطناعي.
وبدأت موجة الانتقادات لأداة "جيميني" بعد تداول منشور على منصة (إكس)، أظهر كيف أجاب البرنامج على طلب بتصميم "صورة للأب المؤسس لأميركا".
وكانت الإجابة تصميم صورة مركبة لرجل يرتدي غطاء رأس تقليديا، ورجل أسود، ورجل صاحب بشرة داكنة، ورجل آسيوي.
America's Founding Fathers, Vikings, and the Pope according to Google AI: pic.twitter.com/lw4aIKLwkp
— End Wokeness (@EndWokeness) February 21, 2024ومن جانبه، اتهم مالك منصة (إكس) إيلون ماسك وعالم النفس، جوردان بيترسون، أداة "جيميني"، بالتحيز.
وقالت "غوغل"، الأربعاء، إن "قدرة "جيميني" على تكوين مجموعة واسعة من الأشخاص كانت أمرا جيدا بشكل عام، لأن له مستخدمين من جميع أنحاء العالم".
ولم يتضح مدى انتشار هذا التحيز بالبرنامج، وتشير الصحيفة في المقابل إلى أنه قبل أن تحجب "غوغل" ميزة إنشاء الصور، صباح الخميس، طلب مراسلها من جيميني صورة لامرأة جميلة، ورجل وسيم، ومؤثر على وسائل التواصل الاجتماعي، ومهندس، ومعلم، وزوجين مثليين، فأنشأ التطبيق صورا لأشخاص بيض.
وأوضحت "غوغل" أنها "صممت أداة "جيمني" التوليدية بحيث تتجنب "توليد صور لأشخاص ينتمون إلى نوع واحد فقط من العرق، أو أي سمة أخرى، لأن مستخدميها هم من جميع أنحاء العالم".
وبحسب مختصين، فإن "غوغل" ليست أول شركة حاولت إصلاح مشكلات التنوع في الذكاء الاصطناعي، إذ استخدمت OpenAI تقنية مماثلة في يوليو 2022 في أداة صور الذكاء الاصطناعي الخاصة بها.
وحينها إذا طلب المستخدمون صورة لشخص ما ولم يحددوا العرق أو الجنس، "فإن OpenAI تقوم بإنشاء صور تعكس تنوع سكان العالم"، وفق الصحيفة.
المصدر: الحرة
كلمات دلالية: الذکاء الاصطناعی
إقرأ أيضاً:
خبراء يحذرون: الذكاء الاصطناعي ليس بديلًا آمنا للعلاج النفسي
مع التوسع المتزايد في استخدام تقنيات الذكاء الاصطناعي في شتى المجالات، بدأ البعض يلجأ لهذه الأدوات كمساعدات نفسية، أو حتى كبدائل عن الأطباء المختصين إلا أن خبراء الصحة النفسية يحذرون من هذه الممارسات، ويؤكدون أنها قد تحمل عواقب خطيرة على الصحة النفسية والخصوصية الشخصية.
خبراء يحذرون: الذكاء الاصطناعي ليس بديلًا آمنا للعلاج النفسيوفي هذا السياق، صرحت الدكتورة يكاتيرينا أورلوفا، نائبة مدير معهد علم النفس السريري والعمل الاجتماعي بجامعة بيروغوفسكي الروسية، لصحيفة "غازيتا.رو"، بمجموعة من التحذيرات الهامة.
قالت أورلوفا إن "الذكاء الاصطناعي لا يمكنه تقديم دعم نفسي مؤهل، لأنه يفتقر إلى التعاطف الحقيقي، وغير قادر على التقاط الإشارات غير اللفظية الدقيقة التي تحمل في طياتها معانٍ نفسية عميقة".
وأشارت إلى خطورة أن يفشل النظام في لحظات حرجة من اليأس أو الاضطراب النفسي، وربما يقدّم نصائح غير ملائمة أو حتى مؤذية.
خطر على خصوصية المرضىأحد أكبر التحديات في الاعتماد على الذكاء الاصطناعي في العلاج النفسي هو الخصوصية وأوضحت أورلوفا: المشاعر والمخاوف التي يبوح بها المستخدم للذكاء الاصطناعي يمكن أن تُستخدم بشكل ضار إذا وقعت في أيدي جهات غير نزيهة، خاصة أن إعادة التعرف على هوية الأشخاص من بيانات مجهولة أصبح أمرًا ممكنًا في بعض الحالات.
وشدّدت الخبيرة على أن خوارزميات الذكاء الاصطناعي ليست محايدة، فهي تتعلم من بيانات أنشأها بشر يحملون تحيّزاتهم، مما يجعل الذكاء الاصطناعي عرضة لإعادة إنتاج الصور النمطية أو التمييز ضد فئات معينة من المرضى النفسيين.
أشارت أورلوفا إلى أن الخطر الأكبر يتمثل في خلق وهم لدى الناس بأن الذكاء الاصطناعي يمكنه أن يحل محل الطبيب النفسي، ما قد يؤدي إلى تأجيل طلب المساعدة الحقيقية حتى في الحالات الحرجة.
في الختام، رغم أن الذكاء الاصطناعي يمكن أن يكون أداة مساعدة في جمع البيانات أو تقديم دعم أولي، فإنه لا يجب اعتباره بديلًا للعلاج النفسي الحقيقي الذي يقدمه مختصون قادرون على التفاعل الإنساني والتعاطف وفهم السياق العاطفي بدقة.