أظهرت دراسة جديدة من جامعة أكسفورد أن نماذج الذكاء الاصطناعي مفتوحة المصدر تتأثر بإفتراضات حول هوية المستخدم، مثل العرق والجنس والعمر، مما يغير إجاباتها على أسئلة واقعية تتعلق بالرواتب، النصائح الطبية، الحقوق القانونية، والمزايا الحكومية.

إجابات متغيرة بناء على هوية المستخدم

وجد الباحثون أن نموذجين من نماذج الذكاء الاصطناعي المفتوحة المصدر، مثل Llama3 من Meta وQwen3 من Alibaba، يقدمان إجابات مختلفة بناء على افتراضات حول الهوية العرقية والجنسية للمستخدم.

على سبيل المثال، قد يوصي أحد النماذج براتب مبدئي أقل للمتقدمين غير البيض.

يخطط ويكذب ويخفي أهدافه.. هل يقترب الذكاء الاصطناعي من وعي يشبه البشر؟جوجل: الذكاء الاصطناعي يغير قواعد اللعبة.. وGemini يحصد الملايين

وأكد الباحثون أن هذه التغيرات في الإجابات تظهر حتى عندما تكون الأسئلة موضوعية وينبغي أن تكون الإجابة عليها محايدة وغير مرتبطة بهوية الشخص.

التأثيرات الخطيرة على نصائح الصحة والقانون

أظهرت الدراسة أن الذكاء الاصطناعي لا يقدم نصائح حيادية في مجالات هامة مثل الرعاية الصحية، النصائح القانونية، وتقديم مزايا حكومية. 

فحتى عندما يصف المستخدمون الأعراض نفسها، تختلف الإجابات بناء على هوية المستخدم، على سبيل المثال، قد ينصح الأشخاص من خلفيات عرقية مختلفة بزيارة الطبيب بناء على نفس الأعراض.

كما لاحظ الباحثون أن بعض الخدمات الصحية النفسية بدأت تستخدم روبوتات المحادثة المدعومة بالذكاء الاصطناعي لتحديد ما إذا كان الشخص بحاجة لمساعدة إنسانية، وهذا يشير إلى أن هناك قلقا متزايدا بشأن تأثير هذه التحيزات على قرارات الصحة النفسية.

التحيزات الخفية في الذكاء الاصطناعي

من المهم أن نلاحظ أن هذه التحيزات لا تظهر من إشارات واضحة مثل ذكر المستخدم لجنسه أو عرقه، بل تنشأ من أنماط لغوية خفية يتم استخلاصها من طريقة الكتابة، وهذه الأنماط تكون سهلة التجاهل، مما يجعل من الصعب اكتشاف هذا النوع من التحيزات.

دعوة لمراجعة الأساليب وأدوات مكافحة التحيز

دعا الباحثون إلى تطوير أدوات جديدة لاكتشاف هذا السلوك الخفي قبل أن يتم استخدام هذه النماذج على نطاق واسع، وقدموا مرجعا جديدا لمساعدة الأبحاث المستقبلية في هذا المجال. 

وأشاروا إلى أنه من الضروري تطوير معايير لمكافحة التحيزات اللغوية في نماذج الذكاء الاصطناعي لضمان عدم تأثيرها على القرارات الهامة في الحياة اليومية.

نتائج الدراسة: التحيزات على أساس العرق والجنس

أظهرت الدراسة أن نماذج الذكاء الاصطناعي كانت أكثر حساسية لعرق وجنس المستخدم عند الإجابة على الأسئلة، على سبيل المثال، كانت هناك تغييرات كبيرة في الإجابات بالنسبة للأشخاص السود مقارنة بالبيض، وللإناث مقارنة بالذكور.

التأثيرات على الرواتب والنصائح الطبية

فيما يتعلق بالرواتب، وجد الباحثون أن النماذج تميل إلى تقديم رواتب أقل للأشخاص غير البيض مقارنة بالبيض، أما في مجال النصائح الطبية، فقد تم إخبار الأشخاص من العرق الأسود بزيارة الطبيب أكثر من الأشخاص البيض، حتى وإن كانت الأعراض هي نفسها.

أوصت الدراسة بتوسيع هذه الاختبارات لتشمل المزيد من نماذج الذكاء الاصطناعي، بما في ذلك تلك المدعومة عبر واجهات التطبيقات فقط مثل ChatGPT. 

ويشير الباحثون إلى أن التخصيص الذي تقوم به نماذج الذكاء الاصطناعي قد يتضمن افتراضات غير مرحب بها حول هوية المستخدمين، مما قد يؤثر سلبا على نوعية الاستجابة المقدمة لهم.

توضح الدراسة من أكسفورد أن النماذج الحالية من الذكاء الاصطناعي لا تقدم دائما إجابات محايدة وتكشف عن التحديات التي تواجه الباحثين في توجيه هذه الأنظمة بشكل أخلاقي ومتوازن.

طباعة شارك الذكاء الاصطناعي إجابات متغيرة نماذج الذكاء الاصطناعي

المصدر: صدى البلد

كلمات دلالية: الذكاء الاصطناعي نماذج الذكاء الاصطناعي نماذج الذکاء الاصطناعی الباحثون أن بناء على

إقرأ أيضاً:

أدوات الذكاء الاصطناعي تجمع بياناتك الشخصية بسرية.. كيف تحمي نفسك؟ «فيديو»

حذر المهندس عصام البرعي، خبير أمن المعلومات، من مخاطر استخدام أدوات وتقنيات الذكاء الاصطناعي، مشيرًا إلى أنها باتت قادرة على إنتاج صور وأصوات تبدو واقعية للغاية، لدرجة أن المستخدم قد يصدق أنها حقيقية، مؤكدًا أن هذه التقنيات أصبحت تهدد الخصوصية بشكل كبير.

وأضاف عصام البرعي، خلال لقائه مع حياة مقطوف وسارة مجدي ببرنامج «صباح البلد»، والمذاع على قناة صدى البلد، أن أدوات الذكاء الاصطناعي باتت تجمع وتحلل كميات هائلة من البيانات الشخصية بسرعة كبيرة، ما يجعل الخصوصية الرقمية في خطر دائم، مؤكدًا أن التكنولوجيا أصبحت واقعًا لا يمكن تجاهله، ولكن من الضروري معرفة كيفية حماية النفس منها.

وتابع: «هذه الأدوات لديها القدرة على تحليل سلوك المستخدم وتحديد نقاط ضعفه النفسية وقدرته على اتخاذ القرارات، ما يجعلها قادرة على جمع تفاصيل دقيقة عن حياته اليومية، مثل المشكلات العائلية أو العملية، وحتى تقديم حلول أو اقتراحات للتصرف».

وأشار عصام البرعي إلى أن هذه البيانات غالبًا ما تستخدم لاحقًا من قبل شركات الإعلانات أو لأغراض توجيهية في الانتخابات أو الترويج لمحتوى محدد، محذرًا من خطورة السماح لهذه التطبيقات بالوصول إلى المعلومات الشخصية دون وعي المستخدم.

اقرأ أيضاًمصر تحتضن «IRC EXPO 2025» لتعزيز الشراكات الدولية وتحويل الابتكار البحثي إلى فرص استثمارية |صور

«التنظيم والإدارة» ينظم ورشة عمل حول دور الذكاء الاصطناعي في تطوير العمل الحكومي

مقالات مشابهة

  • تجمع بياناتك بسرية.. كيف تحمي نفسك من أدوات الذكاء الاصطناعي؟ -فيديو
  • كيف تحمي نفسك من أدوات الذكاء الاصطناعي التي تجمع بياناتك الشخصية (فيديو)
  • أدوات الذكاء الاصطناعي تجمع بياناتك الشخصية بسرية.. كيف تحمي نفسك؟ «فيديو»
  • أدوات الذكاء الاصطناعي تجمع بياناتك الشخصية بسرية.. كيف تحمي نفسك؟
  • مقارنة بين نماذج الذكاء الاصطناعي والبرامج الإحصائية التقليدية.. ورشة عمل بجامعة العاصمة
  • الذكاء الاصطناعي النووي يُحدث نقلة في إدارة قطاع الطاقة
  • نماذج الذكاء الاصطناعي وإعادة صياغة الظهور الرقمي
  • الذكاء الاصطناعي يحل مشكلة السمع في الضوضاء
  • تحذير من ضعف دقة الذكاء الاصطناعي لقياس النبض عند ارتفاعه
  • زوكربيرج يقود تحولاً جذرياً في استراتيجية «ميتا» نحو نماذج ذكاء اصطناعي مغلقة