تسعى الحكومات وشركات التكنولوجيا والأكاديميات في جميع أنحاء العالم إلى الوصول إلى توافق في الآراء حول كل ما يخصّ الذكاء الاصطناعي. كما تحاول أيضاً فهم أفضل السبل التي يمكننا من خلالها الحصول على فوائد الذكاء الاصطناعي مع ضمان حوكمة هذه التقنية وتنظيمها وأنها تُستخدم بشكل عادل دون أن تتسبب بأي ضرر.

أحد الشواغل الشائعة في أنظمة الذكاء الاصطناعي هو تحيز الذكاء الاصطناعي عندما تأتي خوارزمية الذكاء الاصطناعي بنتائج أو تنبؤات غير عادلة أو متحيزة أو تمييزية بسبب افتراضات خاطئة في نظام الآلة الأساسي.

وقبل أن نتمكن من التغلب على هذه المشكلة، علينا أولاً أن نفهم مصدر تلك التحيزات.

 

التحيز في البيانات والذكاء الاصطناعي
ينشأ التحيز في البيانات وخوارزميات الذكاء الاصطناعي في الغالب عندما تكون البيانات الأساسية المستخدمة لتدريب نموذج الذكاء الاصطناعي متحيزة. وأحد أشكال تحيز الذكاء الاصطناعي هو عندما تكون البيانات المستخدمة لتدريب نماذج الذكاء الاصطناعي متحيزة بطبيعتها بسبب كيفية جمعها. وإذا كانت البيانات المختارة للتدريب غير دقيقة أو غير كاملة أو غير متوافقة بطريقة ما بحيث لا تمثل السكان الذين تهدف إلى خدمتهم، فيمكن لنموذج الذكاء الاصطناعي أن يطوّر تحيزاً بناءً على ذلك. وخير مثال على هذه الحالة هو عندما يتم تدريب أنظمة التعرف على الوجه على مجموعة بيانات تخص عرقاً أو جنساً واحداً بشكل أساسي، فسيكون النظام أفضل في التعرف على الوجوه التابعة للمجموعة التي يتحيز لها الذكاء الاصطناعي، وقد يكون أداؤه ضعيفاً بالنسبة للأفراد الذين ينتمون إلى المجموعات العرقية أو الجنسية الأخرى.

وكثيراً ما تظهر التحيزات المجتمعية والتاريخية، فضلاً عن عدم المساواة في البيانات، وقد تتجلى تلك التحيزات في بيانات التوظيف أو سجلات الإقراض أو بيانات العدالة الجنائية، مما يؤدي إلى نماذج الذكاء الاصطناعي التي تعمل على إدامة الفوارق القائمة. ويمكن للخوارزميات نفسها في الواقع التوقف عن التحيز عندما تقوم بتنبؤات بناءً على أنماط في بيانات التدريب، لكنها تعمل عن غير قصد على تضخيم التحيزات الحالية. على سبيل المثال، قد يقوم نظام الذكاء الاصطناعي المدرب على تصفية طلبات العمل بناءً على قرارات التوظيف الماضية باختيار المرشحين الذين يمتلكون خصائص معينة فقط واستبعاد الآخرين.

وهناك أمثلة أخرى على التحيز الذي يمكن أن يحصل في بيئات التعلم الخاضع للإشراف، عندما يقوم المشغلون البشريون بتسمية البيانات المستخدمة للتدريب. كما أن تحيز المعالجة المسبقة للبيانات بالإضافة إلى تحيز الآراء والتعليقات على النتائج قد يسبب أيضاً المشاكل. وإذا لم يتم تنفيذ خطوات المعالجة المسبقة للبيانات وتنظيفها وتطبيعها واختيار الميزات بعناية، فيمكن أن يزيل الذكاء الاصطناعي المعلومات ذات الصلة أو أن يعزز التحيزات الموجودة التي أدخلها المُشغل البشري. ويحدث تحيز الآراء عندما يكون المشغل أو المستخدم النهائي متحيزاً لنتيجة معينة، ويشير إلى الذكاء الاصطناعي بأن نتيجة معينة "صحيحة" ويتم تدريبه على اختيار تلك النتائج. ويستمر الذكاء الاصطناعي في تفضيل النتيجة "الصحيحة" ويستمر المشغل في تصنيفها على أنها "صحيحة" حتى لو لم تكن كذلك، مما يؤدي إلى إنشاء حلقة مستمرة من النتائج المتحيزة.

وهناك قلق جديد إلى حد ما متعلق بالأداة الأكثر استخداماً اليوم، وهو عندما تواجه أنظمة الذكاء الاصطناعي التوليدي (GAI) الصعوبات في فهم الأسئلة، مما يتسبب بالتفسير الخاطئ لها، وقد يؤدي ذلك بدوره إلى توليد إجابات غير صحيحة. وهي ظاهرة تعرف باسم "هلوسة الذكاء الاصطناعي".

وتتنوع أسباب الهلوسة هذه، حيث تفشل خوارزميات الذكاء الاصطناعي والشبكات العصبية للتعلّم العميق في التوافق مع أي بيانات تم التدرّب عليها أو حتى تُظهر أي نمط يمكن تمييزه، وتشمل عوامل خارجة عن البرمجة مثل معلومات الإدخال وتصنيف البيانات غير الصحيح وعدم كفاية البيانات والتدريب ومواجهة التحديات في تفسير الأسئلة باللغات المختلفة أو وضعها في سياقها الصحيح. ومع عدم وجود قيود على أي نوع محدد من البيانات، يمكن أن يحدث ذلك في مختلف أشكال البيانات الاصطناعية وتشمل: النصوص والصور وملفات الصوت والفيديو ورموز الحاسوب.

العدالة المقصودة
للتغلب على التحيز وحماية العدالة في تحليلات البيانات الضخمة المعززة بالذكاء الاصطناعي، يُعدّ اتباع نهج استباقي أمر ضروري للغاية، حيث يمكن لمبادئ "العدالة المقصودة" أن تساعد في توجيه طريقة تطوير أنظمة الذكاء الاصطناعي التي من غير المرجح أن تتسبب بالتحيز أو تشجع عليه.

ويُقلّل ضمان تنوع بيانات التدريب وتمثيلها للسكان الذين سيخدمهم نظام الذكاء الاصطناعي من خطر نقص التمثيل أو التمثيل الزائد لمجموعات معينة، في حين سيساعد التدقيق المنتظم لأنظمة الذكاء الاصطناعي في تحديد التحيز وتصحيحه.

ولحسن الحظ، هناك طرق لتطوير الخوارزميات التي تعمل على تخفيف التحيز بنشاط. على سبيل المثال، تهدف تقنيات مثل تقليل انحياز الخصومة إلى تقليل التمييز في تنبؤات النماذج. ويمكننا أيضاً أن نجعل أنظمة الذكاء الاصطناعي أكثر شفافية وقابلية للتفسير، مما يسمح للمستخدمين وأصحاب المصلحة بالحصول على نظرة دقيقة حول كيفية اتخاذ القرارات، وهو ما يمكن أن يساعد في تحديد التحيّزات ومعالجتها.

أخبار ذات صلة 120 لاعباً في «دولية دبي لتنس الشباب» زكي نسيبة: الشباب حجر الأساس الذي نبني عليه آمالنا في مسيرة التنمية المُستدامة

ويمكننا حتماً المساعدة في تحديد المشكلة بشكل أكثر فعالية، من خلال تعزيز التنوع في الفرق التي تعمل على تطوير أنظمة الذكاء الاصطناعي وتوفير وجهات النظر المتنوعة. كما أن تشجيع المستخدمين على تقديم التعليقات حول نتائج نظام الذكاء الاصطناعي يمكن أن يكون ذو قيمة لا تقدر بثمن في تصحيح هذه المشكلات.

المسار المستقبلي
يعد ضمان العدالة في تحليلات البيانات الضخمة المعززة بالذكاء الاصطناعي رحلة مستمرة، وهناك العديد من الاتجاهات الواعدة، بدءاً من الأطر التنظيمية والتعليم الأخلاقي للذكاء الاصطناعي وحتى أدوات تخفيف التحيز وتقييمات تأثير التحيز.

وقد تكون الخطوة الأولى البسيطة إلى حد ما في معالجة التحيز هي التعاون والشراكات بين الحكومات وشركات التكنولوجيا ومجموعات التوعية، حيث يمكن لأفضل الممارسات والموارد والبيانات المشتركة تسريع التقدم.

وتدرك الحكومات والهيئات التنظيمية بشكل متزايد أهمية معالجة التحيز في مجال الذكاء الاصطناعي، وقد تم بالفعل اتخاذ خطوات لتطوير أطر تنظيمية شاملة. ووقعت المملكة المتحدة والولايات المتحدة والصين والاتحاد الأوروبي في وقت سابق من شهر نوفمبر على إعلان بلتشلي لتنظيم وكبح المخاطر المحتملة لتقنية الذكاء الاصطناعي، في حين وقعت أيضاً على مدونة قواعد السلوك للشركات المشاركة في بناء بعض أنظمة الذكاء الاصطناعي الأكثر تقدماً.

وجاء ذلك على خلفية توقيع رئيس الولايات المتحدة على أمر تنفيذي بشأن تطوير واستخدام الذكاء الاصطناعي بشكل آمن وموثوق، نظراً لأن الاستخدام غير المسؤول يمكن أن يؤدي إلى "تفاقم الأضرار المجتمعية مثل الاحتيال والتمييز والتحيز والانتهاكات والتضليل وتشريد العمال وإضعافهم وخنق المنافسة وتشكل مخاطر على الأمن القومي".

إذن، تعي القوى العالمية كيف يمكن إساءة استخدام الذكاء الاصطناعي بدرجة ضارة، وتتخذ خطوات حثيثة للتخفيف من هذه الظاهرة، مثل المبادئ التوجيهية الثمانية لإدارة الرئيس بايدن، وإن كانت خاصة بالولايات المتحدة، وتشمل:

1) يجب أن تكون هذه الأنظمة آمنة وسليمة
2) تشجيع الابتكار المسؤول والمنافسة والتعاون
3) اشتراط الالتزام بدعم العمال الأميركيين
4) أن تكون متسقة مع التفاني في تعزيز المساواة والحقوق المدنية
5) حماية مصالح الذين يستخدمون أو يتفاعلون مع أو يشترون منتجات الذكاء الاصطناعي والمنتجات التي تدعم الذكاء الاصطناعي
6) حماية الخصوصيات والحريات المدنية
7) إدارة المخاطر وتعزيز القدرة الحكومية الداخلية على تنظيم الاستخدام المسؤول للذكاء الاصطناعي وحوكمته ودعمه
8) قيادة الطريق نحو التقدم المجتمعي والاقتصادي والتقني العالمي.

ويعتبر تعزيز التعليم والتدريب الأخلاقي في مجال الذكاء الاصطناعي أمر ضروري أيضاً، ويضم تثقيف ممارسي الذكاء الاصطناعي والمطورين والمستخدمين حول الآثار المترتبة على التحيز وكيفية معالجته. وسيكون استمرار البحث والتطوير لأدوات ومكتبات تخفيف التحيز أمراً بالغ الأهمية، وكذلك اعتماد تقييمات تأثير التحيز الموحدة لمساعدة الشركات على قياس التأثير المحتمل لأنظمة الذكاء الاصطناعي الخاصة بها على المجموعات السكانية المختلفة.

يشكل التغلب على هذا التحيز التقني تحدياً معقداً ومتعدد الأوجه ويتطلب جهداً جماعياً. وهناك حلّ لهذا التحدي، فمن خلال معالجة التحيز بشكل مباشر وضمان العدالة في تحليلات البيانات الضخمة المعززة بالذكاء الاصطناعي، نجد أن الطريق إلى مستقبل الذكاء الاصطناعي الخالي من التحيز أصبح في متناول أيدينا.

مادة إعلانية

المصدر: صحيفة الاتحاد

كلمات دلالية: أنظمة الذکاء الاصطناعی یمکن أن

إقرأ أيضاً:

الذكاء الاصطناعي.. وصياغة التاريخ الموازي

منذُ أن بَزغَ فجرُ الخوارزميّات الذكيّة القادرة على إنتاج اللغة والصورة والمرئيات بقدراتٍ تُحاكي مخيّلة الدماغ البشريّ، انفتحتْ لنا نافذةٌ غير مسبوقة على ما يمكن أن نسمّيه «مجرَّة الاحتمالات التاريخيّة» الذي نقصد به الفضاء اللامتناهي من السيناريوهات التي لم تقع، ولكنها -لو وقعَتْ- لكان بوسعها أن تُبدِّل من مسار الحضارات الإنسانية وصورتها، ولعلّ ما نطلق عليه بـ«التاريخ الموازي» أو بـ«التاريخ المضاد» (Counterfactual History) يثير شغفنا باعتباره حقلًا نظريًّا ينشطُ حِينًا ويخبو أحايينَ؛ فيستهوي بعضَ المؤرِّخين والفلاسفة عبر طرح أسئلة تخالف أبجديات التاريخ وقواعده الثابتة، مثل: ماذا لو لم يُقتل يوليوس قيصر؟ ماذا لو انتصر العربُ في بلاط الشهداء؟ ماذا لو أُجهِضت الثورةُ الصناعيّة في مهدها؟ ماذا لو انتصر العربُ في حرب 1967 أو قبلها في حرب 1948؟ بيدَ أنّ هذه التساؤلات ـ قبل ظهور الذكاء الاصطناعي ـ كانت تنتمي إلى ضربٍ من العبث العقلي أو التأمّل الفلسفي غير الخاضع للقياسات المنطقية؛ إذ يفتقر الباحثُ إلى أدواتٍ تجريبية تمنحه القدرة على إخضاع مثل تلك الفروض لاختبارٍ شبه علمي.

لكننا اليوم، ومع تطوّر نماذج المحاكاة القائمة على خوارزميات التعلّم العميق والشبكات العصبيّة، أضحى بإمكاننا أن نزوّد هذه الخوارزميات الذكيّة بمكتباتٍ ضخمة من الوقائع، والمعطيات الاقتصاديّة، والديموغرافيّة، ونُطلقها لتُنجِزَ ملايينَ المحاكاة التي تتعقّبُ التغيّر البنيويّ لحدثٍ واحدٍ إذا انحرفَ عن مساره قيدَ أنملة؛ ليغدو الذكاءُ الاصطناعي أداةَ «إحياء» لا للتاريخ كما كان، ولكن للتواريخ الممكنة التي لم تكن؛ فيمدّنا بسرديّاتٍ بديلة تُظهِر مآلاتٍ تقترن بزمنٍ متخيَّل، ولكنها مُرتكَزةٌ علميًّا على نماذج سببيّة واحتمالات دقيقة. من المعلوم أن المؤرِّخَ التقليديّ يعتمد على الوثائق والشهادات والآثار المادّيّة، وبمعنى عام، يكون اعتماده على ما تبقّى من الأثر في الزمن، ولكنّ الخوارزميّات تُضيفُ إلى هذا الثالوث بُعدًا رابعًا، سنطلق عليه «الاحتمال المُحاكَى»؛ لتُرَكِّب بُنيانًا من البيّنات وتنسج خريطة علاقات سببيّة، ثمّ تُعطى حرّيّة تعديل عقدةٍ واحدة من عقد هذه الشبكة لترى كيف سيُعاد ترتيب الأنماط؛ فإذا أبدلنا نتيجةَ معركةٍ حاسمة أو قُيِّض لقائدٍ ما أن ينجو من الاغتيال؛ تدحرجت التأثيراتُ كسلسلة «دومينو» في نموذج رياضيّ يمكن تتبّعه عدديًّا وصُوَريًّا.

لا أستبعد أن يقول قائلٌ: أليست هذه مُغالاة في الثقة بقدرة الآلة -الذكاء الاصطناعي- في إعادتها لصياغة الأحداث ومساراتها المستقبلية؟ بلى، ويبقى الحذرُ واجبًا؛ فلا يملك الذكاء الاصطناعي معرفةً واعيةً بالماضي، وإنما يتوقّع تركيب الأنماط ويعيد تصميمها وفقًا لما لُقِّنَ من بيانات. غير أنّ قيمته الحقيقية لا تكمن في المطابقة القطعيّة ولا في النبوءة الغيبيّة، ولكن في أنّه يوفّر لنا «مِرآةً مُفترَضة» نعكس عليها تصوّراتنا؛ فنقارن بينها وبين الوقائع الحقيقيّة؛ لنفهمَ بشكل أعمق قانونَ الصدفة والضرورة في التاريخ.

تفترض التصوراتُ العقلية أنه حين تُمنح المجتمعاتُ الإنسانية فرصةَ الاطّلاعِ على سرديّات بديلة وفق المحاكاة العلمية؛ فإن بنيةَ الوعي تتغيّر وفقَ عدة سُبل، وأول هذه السبل أن ينكسر وَهْمُ الحتميّة التاريخيّة؛ إذ يدرك الفرد الإنساني أنّ المسارات الكبرى ليست قدَرًا محتومًا، وإنما حصيلةُ قراراتٍ بشريّة قابلةٍ لأن تُسلكَ أو تُستبدَل وتتفاعل مع قانون السببية والاحتمالات الكونية المتعددة، ويُحرّر مثل هذا الإدراك طاقاتٍ سياسيّة جديدة، لأنّ الفرد يرى في الحاضر مفصلًا مفتوحًا، لا ذيْلًا مقطوعًا من ماضٍ مكتوبٍ على حجر. ثاني هذا السبل أن تُسهم هذه «الواقعات المضادّة» في توسيع مخيّلة «المظلوميّات التاريخيّة»؛ فيمكن للشعوب التي تعرّضت للاستعمار أو الإبادة أن تجد ـ عبر المحاكاة ـ صورًا من التاريخ النزيه الذي حرمها إيّاه المنتصرون «المعتدون»، ولا يعني ذلك استبدال الماضي بحلم منزوع الواقعية، وإنما يكون عن طريق توزيع حسّ العدالة الرمزيّة؛ ليُعطي الضحيّةَ أفقًا روحيًّا للتعافي الجمعيّ. ثالث هذه السبل، نراه فيما يخص حقل علوم السلوك السياسيّ؛ حيثُ توفّر هذه النماذج مختبرًا افتراضيًّا لاختبار السياسات قبل تطبيقها؛ فيمكن لمحاكاةٍ مستندةٍ إلى تاريخٍٍ بديلٍ أن تكشفَ مخاطرَ أو فرصًا ما كانت لتظهر بالتنبّؤ الاستنباطيّ وحده.

يُعيدنا هذا كلّه إلى سؤالٍ جوهري: ما مفهومنا للتاريخ؟ هل هو تسلسلُ ضروراتٍ تحدّدها بنيةُ الأنظمة الاقتصاديّة والطبيعيّة؟ أم أنّه رقصة الاحتمالات حول محورٍ من القرارات الإنسانيّة الحرّة؟ لا أملك إجابات حتمية لهذه الأسئلة، ولكن جلَّ ما أدركُه أنّ الذكاءَ الاصطناعي ذو قدرةٍ على تمثيل آلاف الشُعَب الزمنيّة؛ ليوغل بنا في رؤيةٍ «كوسمولوجيّة»، حيثُ يتجاور الماضي الواقعيّ مع أطيافٍ لا تُعدّ من الأزمنة المحتملة، وتصبح سلسلة الوقائع أشبهَ بمتعدِّدٍ «طوبولوجيّ»، لا خطًّا مستقيمًا. هنا يلتقي العلمُ بالرياضيات الإحصائيّة مع الفلسفة القاريّة في نقدها لفكرة «التقدّم الخطيّ»، ويلتقي أيضًا مع قواعد الفيزياء الكوانتمية التي ترى الواقعَ «دالة موجيّة» تتقلّص إلى حدثٍ واحدٍ يعكس الوجود اللحظي الذي نعيش فيه؛ فالاحتمالات وفقَ النظام الكوانتمي متعددة ولها عوالمها الموازية التي تشمل ما نسميّه بالتاريخ الموازي.

في حالة مغايرة تستدعي يقظة وعينا، نجد أنّ فتح بوّابة «التواريخ البديلة» ليس فعلًا عادلا محضا؛ فيمكن لبعض الأنظمة السياسيّة أو الاقتصاديّة أن توظّفها لصنع سرديّات ترويجيّة تتلّبس بلباس العلم؛ فتختار المعطيات وتُعيد وزنها لتصيغ مستقبلًا مرغوبًا؛ فتدّعي أنّه المسار «الأكثر ترجيحًا»؛ فتتقاطع -حينها- المحاكاة مع تصورات الرأي العام، وتصبح الخطورةُ كامنةً في قدرة الخوارزميّة على إنتاج قصصٍ «مقنِعةٍ» بصريًّا ولسانيًّا تؤثّر في اللاوعي الجمعيّ أكثرَ من الخُطب والشعارات، وحينها يتطلب الأمر صياغة مواثيق أخلاقيّة تُنظّم استعمال هذه التقنيات؛ لتوثّقَ مصادرَ البيانات، وتُعلن افتراضات النموذج، وتمنح الباحثين تدقيق التصوّر الخوارزمي للمسار التاريخي ونموذجه المستوحى والمُحاكَى؛ لنتجنب عدم تحوّل المحاكاة من مختبرٍ معرفيّ إلى «مصنع أوهام» تخدم مصالح مجتمعات على حساب مجتمعات أخرى.

لابد أن نقرَّ أن الإنسان -بإرادته وتفوّقه العلمي- منح الذكاءَ الاصطناعي قدرةً غير مسبوقة على تفكيك الزمن وإعادة ترتيبه وفقَ رغبات الإنسان نفسه، لا لنهرب من الماضي، ولكن لنعيد تأويله ونكشف هشاشته، ولهذا من العدالة أن نتصور أنّ إحياء الواقعات المضادة ليس تمرينًا سرديًّا فحسب؛ ولكنّه مشروعٌ معرفيٌّ يعيد الإنسانَ إلى مركز الفعل التاريخيّ بعد أن ظنّ أنّه أسيرُ قَدَرٍ اقتصادي أو سياسي أو جينيّ، وإذا كانت الفلسفة ـ كما يقول الفيلسوف الألماني هوسرل ـ «علم البدايات المطلقة»؛ فإنّ هذه التقنية يمكن أن تمنحنا بدايةً جديدةً للتفكير في التاريخ: لا باعتبارها تراكم ما حدث، ولكن باعتبارها فضاء لما كان يمكن أن يحدث، ولا يزال بعضُه ممكنًا في مستقبلٍ لم يحن موعده بعد. هكذا، حين نجعل من الخيال المُحاكَى مختبرًا للعقل؛ فإننا نستعيد القدرةَ على السؤال، ونوسّع مساحةَ الحريّةِ العقلية ومخيّلته، ونمنح الأجيالَ القادمة وعيًا أكثر مرونةً واستعدادًا لكتابة فصولٍ أقلّ بؤسًا؛ فالذكاء الاصطناعيُّ، إن حَسُن استعماله؛ فإنه يُعيدنا إلى تلك اللحظة «البروميثيوسيّة» الأولى حين سرق الإنسانُ الأول النارَ من الآلهة -وفقَ خيالات الأدب الأسطوري القديم-؛ ولكنّ نارَ الاحتمالات -كما في معرض مقالنا وفرضياته المذكورة- لا تحرق، وإنما تُضيء ممرات التاريخ المظلمة؛ فترشدنا إلى دروبٍ ما كانت لتُعرفَ لولا رياضيات الخيال الخوارزميّ وملاحمه التاريخية القابلة لإعادة أحداثها ومساراتها.

د. معمر بن علي التوبي أكاديمي وباحث عُماني

مقالات مشابهة

  • مميزات جديدة لواتساب من خلال الذكــاء الاصطناعي ..فيديو
  • كم من الأطفال يجب أن يَـقـتُـل الذكاء الاصطناعي؟
  • المكتب الوطني للإعلام يعلن إطلاق منصة سحابية لتحليل البيانات عبر الذكاء الاصطناعي
  • المكتب الوطني للإعلام يعلن عن إطلاق منصة سحابية لتحليل البيانات عبر الذكاء الاصطناعي
  • «الوطني للإعلام» يطلق منصة سحابية لتحليل البيانات عبر الذكاء الاصطناعي
  • هل يمكن توظيف الذكاء الاصطناعي في صيانة وترميم المومياوات؟
  • كيف يمكن استخدام الذكاء الاصطناعي في المذاكرة؟ نصائح تربوية للطلاب
  • متخصص: يجب فهم الكتالوج الخاص بك لمعرفة الأشياء التي يمكن التحدث عنها ..فيديو
  • الذكاء الاصطناعي يحوّل الصور إلى فيديوهات عبر «تيك توك»
  • الذكاء الاصطناعي.. وصياغة التاريخ الموازي