سلط معهد رويترز لدراسة الصحافة الضوء على معضلة التحيّز في الذكاء الاصطناعي محذرا من مخاطره، لا سيما مع بدء 49% من المؤسسات الإخبارية استخدام نماذج الذكاء الاصطناعي، وفق أحدث استطلاع أجرته الرابطة العالمية للصحف وناشري الأخبار "ون إفرا" (WAN-IFRA).

وضمن تقرير مطوّل، حاولت راما شارما المستشارة والمدربة التنفيذية بالمعهد تقديم إجابات حول هذه المعضلة، عبر التحدث إلى 18 صحفيا وخبيرا إعلاميا وتقنيا وأكاديميا.

اقرأ أيضا list of 2 itemslist 1 of 2إعلامlist 2 of 2أكسيوس تجذب الجمهور بأسلوب تحريري فريدend of list

ويقول ماتياس هولويغ أحد خبراء برامج الذكاء الاصطناعي في كلية سعيد للأعمال بجامعة أكسفورد إن "التحيز سمة، وليس عيبا" في هذه الأدوات، موضحا أن أي نموذج ذكاء اصطناعي سيعكس التحيزات الموجودة بالبيانات التي جرى تدريبه عليها.

ويستمد "شات جي بي تي" مثلاً قرابة 60% من مواده التدريبية، من محتوى الويب في ويكيبيديا ومواقع أخرى مماثلة، بالإضافة إلى الكتب الرقمية والأوراق الأكاديمية. في حين أن النموذج الذي يتعلم من هذه المصادر سيرث بطبيعة الحال تحيزاتها.

وتحذر شارما هنا من حدوث ما وصفته بـ"التحيز الضار" أو "التحيز الخوارزمي" والذي يحدث عندما يتعلم النموذج من بيانات غير عادلة أو متحيزة بالفعل، لينتهي الأمر بعملية التعلم الطبيعية للذكاء الاصطناعي إلى عكس التحيزات المجتمعية القائمة وتضخيمها من المعلومات التي يتم تزويده بها، مما يؤدي إلى نتائج تعاقب أفرادا أو مجموعات معينة.

معهد رويترز لدراسات الصحافة دأب على إصدار تقارير سنوية عن الصحافة وتأثير التكنولوجيا عليها (الجزيرة)

ويمكن أن تظهر هذه الأخطاء في أي مرحلة من مراحل بناء النموذج، بدءا من جمع البيانات وتصميم النموذج وحتى النشر.

خبير تقني: التحيز يأتي من باحثين غربيين

ويحذر بيتر سلاتري -الذي يدير منصة مفتوحة المصدر تساعد الناس على فهم مخاطر الذكاء الاصطناعي بمعهد ماساتشوستس للتكنولوجيا- من ظهور أضرار جديدة يوميا، كما يشعر بقلق إزاء طرق يمكن أن تؤثر بها هذه التقنيات على دول الجنوب.

إعلان

ويضيف "لقد لاحظت وجود تحيز في الكثير من الأدبيات التي ندرجها في قاعدة بياناتنا، حيث إنها تأتي في الغالب من باحثين في مؤسسات غربية نخبوية".

وتقول معدّة تقرير معهد رويترز إنه ليس من السهل معالجة التحيز في أنظمة الذكاء الاصطناعي، لافتة إلى أن الجهود حسنة النية قد تأتي بنتائج عكسية أحيانا، وقد تجلى ذلك عام 2024 عندما أنتج مولد الصور "جيميني" من غوغل صورا لنازيين سود، وفايكنغ من الأميركيين الأصليين، فيما بدا أنه محاولة لتنويع المخرجات، وقد أجبرت ردود الفعل الغاضبة آنذاك غوغل على تعليق هذه الميزة مؤقتا.

وتبين شارما أن إحدى الطرق المقترحة -التي تلقتها أثناء حضورها ورشة عمل تقنية بمعهد "آلان تورينغ" في لندن- هي اتخاذ نهج استباقي للمراقبة عند إنشاء أنظمة جديدة للذكاء الاصطناعي، يشمل تشجيع المهندسين وفرقهم على إضافة بيانات وصفية، في كل مرحلة من مراحل عملية إنتاج الذكاء الاصطناعي، بما في ذلك معلومات عن الأسئلة المطروحة، والتدابير التخفيفية المطبقة لتتبع القرارات المتخذة.

أنواع التحيز بالذكاء الاصطناعي

وشارك الباحثون الذين تحدثوا لـ"شارما" إلى 3 فئات من التحيزات التي قد تحدث، إلى جانب تلميحات للمساعدة في التخفيف منها:

1/تحيزات الإحصائية

وتنشأ عن عيوب في طريقة جمع البيانات أو أخذ العينات أو معالجتها، مما يؤدي إلى أخطاء منهجية. ومن الأنواع الشائعة، التحيز الناجم عن البيانات المفقودة، حيث تكون بعض المجموعات أو المتغيرات ممثلة تمثيلا ناقصا أو غائبة تماما من مجموعة البيانات.

فمثلا: مجموعة بيانات صحية تتضمن بيانات عن الرجال، وتغفل مؤشرات حول صحة المرأة (كالحمل أو التغيرات الهرمونية) قد تفشل نماذج الذكاء الاصطناعي المدربة على هذه المجموعة من البيانات في التعرف على احتياجات صحة المرأة، أو الاستجابة لها بشكل مناسب.

2/ تحيزات معرفية

وتعكس أنماط التفكير البشري التي تحيد عن الحكم العقلاني، فعندما تؤثر هذه التحيزات على كيفية اختيار البيانات أو تفسيرها أثناء تطوير النموذج، يمكن أن تصبح جزءا لا يتجزأ من أنظمة الذكاء الاصطناعي.

ويبيّن التقرير أن أحد الأشكال الشائعة هنا هو التحيز التأكيدي، ويقصد به الميل إلى البحث عن المعلومات التي تتوافق مع المعتقدات أو النظرة العالمية المسبقة أو تفضيلها.

وعلى سبيل المثال: قد يتم تصميم نظام توصية الأخبار باستخدام بيانات تم تنسيقها من قبل محررين ذوي ميول سياسية معينة. وإذا عزز النظام المحتوى الذي يتوافق مع هذه النظرة للعالم مع استبعاد وجهات النظر البديلة، فقد يؤدي ذلك إلى تضخيم التحيز التأكيدي لدى المستخدمين.

3/ تحيزات اجتماعية

وتنبع من التفاوت داخل الأنظمة أو الافتراضات الثقافية المتأصلة في البيانات، وغالبا ما تعكس الظلم التاريخي أو الممارسات التمييزية.

فمثلا: قد تتعلم أداة توظيف تعتمد على الذكاء الاصطناعي ومدربة على بيانات التوظيف التاريخية تفضيل المرشحين الذكور لشغل مناصب قيادية، إذا كانت قرارات التوظيف السابقة تفضل الرجال، مما يعزز المعايير الجنسانية القديمة ويستبعد النساء المؤهلات.

وأشار التقرير إلى أن البيانات القديمة يمكن أن تكون ضارة بقدر البيانات المفقودة. ونقل عن فلوران دودنس وهو صحفي سابق يعمل الآن مع شركة فرنسية متخصصة بالذكاء الاصطناعي قوله "إذا لم تتطور البيانات، يمكن أن ينتشر المحتوى الضار والتحيز خارج سياق مجموعة البيانات الأصلية، مما يؤدي إلى تفاقم الفجوات".

خطر التحيز المتعمد

ويحذر هولويج، الخبير في كلية سعيد للأعمال بجامعة أكسفورد من التغذية السريعة لنموذج الاصطناعي، وتسميم مجموعات البيانات، لافتا إلى أنها بمثابة أشكال من التحيز المتعمد.

غرف الأخبار وخاصة المؤسسات الكبرى تشهد مجهودات لدمج الذكاء الاصطناعي بالعمل (شترستوك)

والتغذية السريعة هي إضافة نص مخفي أو تلاعب بمدخلات لتضليل الذكاء الاصطناعي وتجاهل تعليماته أو التصرف بطريقة غير مقصودة. ويقصد بتسميم قاعدة البيانات إدراج معلومات كاذبة أو متحيزة في بيانات التدريب لتشويه سلوك الذكاء الاصطناعي أو مخرجاته، ومن الأمثلة على ذلك وضع تقييمات مزيفة للمنتجات.

إعلان

وقد بدأت بعض المؤسسات الإعلامية في الاستجابة لهذه المخاطر، حيث عينت الإذاعة البافارية في ميونخ مراسلة متخصصة في المساءلة الخوارزمية، للتحقيق في تأثير تكنولوجيا الذكاء الاصطناعي على المجتمع.

وأوضح التقرير أن بعض المبتكرين حاولوا إعادة تصور دور الذكاء الاصطناعي في الصحافة ليس فقط كأداة للإنتاجية، ولكن كعدسة لزيادة الوعي الذاتي.

ففي جامعة فلوريدا، ثمة فريق لاستكشاف كيف يمكن للذكاء الاصطناعي أن يساعد في تحديد أنواع التحيز التي تظهر أثناء إنتاج الأخبار، وتعاون الفريق مع أخصائي لغويات وعلماء حاسوب من الجامعة، لدراسة كيفية صياغة الأخبار الهامة في مختلف وسائل الإعلام.

وخرج الفريق بنتائج أولية اعتبرت أن "الأفعال والصفات المرتبطة بمتظاهري حركة حياة السود مهمة" كانت كلمات نارية مثل "تشعل" و"تنفجر" و"تشعل شرارة" حتى عندما كانت المسيرات سلمية.

وفي الوقت نفسه، استخدمت التغطية الأميركية للاحتجاجات في الجامعات لغة أكثر عاطفية لوصف الخسائر الإسرائيلية مقارنة بمعاناة الفلسطينيين.

وفي ختام تقريرها، أكدت المستشارة بمعهد رويترز لدراسة الصحافة أن القضاء على التحيز قد يكون مستحيلا، لكن يمكن فهم هذه القضايا والتخفيف من حدتها من خلال فرق متعددة التخصصات ذات وجهات نظر واسعة.

المصدر: الجزيرة

كلمات دلالية: حريات دراسات الذکاء الاصطناعی یمکن أن

إقرأ أيضاً:

الذكاء الاصطناعي يُحدث نقلة في مكافحة التدخين الإلكتروني

أظهرت دراسة أجرتها جامعة كوينزلاند الأسترالية أن إعلانات التوعية بمخاطر التدخين الإلكتروني، التي صُممت بالاستعانة بالذكاء الاصطناعي وبالتعاون مع الشباب، حظيت بتقييم يعادل أو يتفوق على الإعلانات التي تنتجها الجهات الصحية الرسمية.
وتشير نتائج الدراسة، المنشورة في دورية "JAMA Network Open"، إلى أن الذكاء الاصطناعي التوليدي قد يسهم في تقليص المدة الفاصلة بين اكتشاف المخاطر الصحية العامة وإطلاق الحملات الإعلامية المؤثرة.
وشارك في الدراسة 600 شاب وشابة تتراوح أعمارهم بين 16 و25 عاماً من مختلف أنحاء أستراليا.

- اقرأ أيضاً: أداة ذكاء اصطناعي جديدة لتشخيص ورعاية فشل القلب

فجوة زمنية
قال غاري تشان، الأستاذ المشارك في الدراسة: "الحملات الإعلامية الجماهيرية أثبتت فعاليتها في تغيير سلوكيات الصحة العامة، إلا أن إعدادها يستغرق وقتاً طويلاً، مما يخلق فجوة زمنية بين ظهور المشكلة واستجابة الجهات الصحية".
وأشار إلى أن مثال أستراليا واضح في هذا السياق، حيث ظهرت التحذيرات من أضرار التدخين الإلكتروني عام 2018، لكن أول حملة وطنية أُطلقت في عام 2021، مؤكداً أن التعاون مع الشباب في تصميم إعلانات بالذكاء الاصطناعي يمكن أن يقلل هذه الفجوة بشكل كبير.

- طالع أيضاً: الذكاء الاصطناعي يسلّح جهاز المناعة بـ"صواريخ" لمهاجمة الخلايا السرطانية

تجربة عشوائية
الذكاء الاصطناعي التوليدي هو تقنية قادرة على إنتاج الصور والنصوص بسرعة، مما يتيح للجهات الصحية الاستجابة الفورية للتحديات الطارئة.
وفقاً لموقع "ميديكال إكسبريس"، قيّم المشاركون في التجربة 50 إعلاناً، نصفها مولد بالذكاء الاصطناعي بالتعاون مع الشباب، والنصف الآخر إعلانات رسمية موجودة مسبقاً.
وعُرضت مصادر الإعلانات عشوائياً للمشاركين، سواء بإخبارهم أنها صُممت بالذكاء الاصطناعي، أو من إنتاج منظمة الصحة العالمية، أو مزيج من الاثنين، أو دون ذكر مصدر.

- انظر أيضاً: هل سيحل الذكاء الاصطناعي محل الأطباء؟.. رئيس "ChatGPT" يجيب

إعلانات جاذبة
كشفت نتائج التجربة أن الإعلانات المولدة بالذكاء الاصطناعي احتفظت بجاذبيتها حتى عند التصريح بمصدرها، وهو ما أرجعه الباحثون إلى ألفة الشباب مع التكنولوجيا الحديثة.
ورغم الإمكانات الكبيرة لهذه التقنية، حذر الباحثون من سهولة إنتاج معلومات صحية مضللة بكميات كبيرة، مما يستدعي وضع أطر تنظيمية تضمن الشفافية والمصداقية.
ويخطط فريق البحث لدراسة ما إذا كانت هذه الإعلانات قادرة بالفعل على التأثير في السلوك، مع توسيع نطاق التجربة لتشمل مشكلات صحية أخرى.

أمجد الأمين (أبوظبي)

أخبار ذات صلة «الأمن السيبراني» وشرطة أبوظبي يحذران من التعامل مع الرسائل والمكالمات مجهولة المصدر ثورة تعيد تشكيل العمران.. مدن المستقبل بلمسة الذكاء الاصطناعي

مقالات مشابهة

  • هل يمكن للذكاء الاصطناعي أن يُنتج نكاتا مضحكة؟
  • الذكاء الاصطناعي الحواري .. طفرة في منظومات العمل الرقمية
  • أبل تلمح إلى استثمار كبير في الذكاء الاصطناعي
  • ورقة بحثية: الذكاء الاصطناعي قد يدمر البشرية بحلول 2027
  • الجدل الاقتصادي في شأن الذكاء الاصطناعي (2/5)
  • آبل تلمح لصفقات ضخمة لتجاوز تأخرها في سباق الذكاء الاصطناعي
  • المطرف: يجب التعامل مع الذكاء الاصطناعي بتوازن ووعي..فيديو
  • الذكاء الاصطناعي يُحدث نقلة في مكافحة التدخين الإلكتروني
  • زوكربيرغ: الذكاء الاصطناعي الخارق أصبح وشيكًا