الذكاء الاصطناعي- هل يتسبب بـ"تمييز رقمي" مبرمَج في ألمانيا؟
تاريخ النشر: 1st, September 2023 GMT
يحذر خبراء من حدوث أشكال من التمييز في التطبيقات التي تعتمد على الذكاء الاصطناعي
خلال مؤتمر صحافي في برلين الأربعاء (30 أغسطس / آب)، قالت فيردا أتامان، المفوضة المستقلة لمكافحة التمييز في ألمانيا، إن الذكاء الاصطناعي "يسهل الكثير من نواحي الحياة بما في ذلك التمييز والعنصرية" أيضا.
وجاءت تصريحات أتامان، رئيسة الوكالة الاتحادية لمكافحة التمييز، في مستهل تقديم تقريرها بشأن أفضل السبل لحماية الأشخاص من أي شكل من أشكال التمييز التي تساهم فيها "الخوارزميات الخاصة بدعم اتخاذ القرارات" أو ما يطلق عليها في الإنجليزية "algorithmic decision making systems"، وتعرف في العربية اختصارا بـ"مجال الأتمتة".
واستشهد التقرير بأمثلة عديدة يستخدم فيها "مجال الأتمتة"، الذي يعتمد على الذكاء الاصطناعي، مثل إجراءات التقديم للحصول على وظيفة، أو الحصول على قروض من البنوك أو توقيع عقود مع شركات التأمين أو الحصول على دعم من الدولة مثل المساعدات الاجتماعية.
التمييز الرقمي؟
وقالت أتامان "ما يبدو موضوعيا للوهلة الأولى يمكن أن يعيد تلقائيا صدور أحكام مسبقة وتصورات نمطية. ولا ينبغي لنا تحت أي ظرف من الظروف أن نقلل من مخاطر التمييز الرقمي".
يشار إلى أن السنوات الماضية قد برهنت على صحة مخاوف أتامان، إذ إنه في عام 2019، تعرض أكثر من 20 ألف شخص في هولندا لعملية فساد انطوت على استخدام التكنولوجيا التي يفترض كثيرون أنها نزيهة، في قضية عُرفت إعلاميا بـ "فضيحة الاحتيال في إعانات رعاية الأطفال".
وتعود القضية إلى مطالبة آلاف الأسر في هولندا بسداد عشرات الآلاف من الإعانات بعد اتهامهم خطأ بالاحتيال في رعاية الأطفال، وتهديدهم بفرض غرامات كبيرة عليهم، في فضيحة أدت إلى استقالة الحكومة في حينه بعد أن اعترفت بالخطأ، الذي تعرضت له، خصوصا الأسر التي لديها جنسية مزدوجة.
ويرى خبراء أن "الخوارزمية التمييزية في البرنامج كانت مسؤولة جزئيا" عن الخطأ في فضيحة عززت مخاوف الأقليات العرقية في هولندا من أنهم يتعرضون للتمييز السلبي من قبل السلطات.
وفي محاولة لمنع حدوث مثل هذه الحالات في ألمانيا، دعت أتامان الشركات إلى العمل بشفافية، بما يشمل تقديم الشركات التي تستخدم الذكاء الاصطناعي معلومات حول البيانات المستخدمة وطريقة معالجتها.
وأشار مؤلفو التقرير، الذي قدمته المسؤولة الألمانية إلى أن الأنظمة القائمة على استخدام الذكاء الاصطناعي تعد بمثابة "صندوق أسود"، حيث من الصعب تتبع أسباب تعرض أي فئة لأي تجاوزات.
وقال التقرير إن احتمالات التمييز في "خدمات إدارة بيانات التطبيق" قد تكون "متأصلة بالفعل في النظام نفسه"، فيما قد يكون السبب في ذلك مجموعة بيانات معيبة جرى جمعها لغرض منحرف.
دعت فيردا أتامان، المفوضة المستقلة لمكافحة التمييز، إلى وضع قواعد بشأن استخدام الذكاء الاصطناعي
الرمز البريدي
ولم يتوان التقرير عن تقديم أمثلة على مثل هذه الحالات، قائلا: "لا تعد خاصية الرمز البريدي، على سبيل المثال، تمييزية في حد ذاتها، لكنها قد تنطوي على شكل من أشكال التمييز المحظور بسبب أن الكثير من المهاجرين، ولأسباب تاريخية، يقطنون أحياء معينة".
مختارات "الأب الروحي للذكاء الاصطناعي" يستقيل من غوغل ويحذر من مستقبل مظلم الذكاء الاصطناعي.. تحذيرات من خطرٍ محدق "إذا لم تتم السيطرة"! مخاوف من توظيف الذكاء الاصطناعي لملاحقة المعارضين بالشرق الأوسطوأضاف التقرير أن هذه الاحتمالية قد تسفر عن عواقب سلبية على الأشخاص، الذين يعيشون في هذه المناطق، إذ يمكن في حالة رغبتهم في الحصول على قروض اعتبار الأمر ينم عن مخاطر مالية مع الاعتقاد السائد بأن المهاجرين قد لا يتمكنون من سداد ديونهم، فيما يُطلق عليه "التمييز الإحصائي السكاني"، الذي يجعل من أي شخص ينتمي إلى عرقية بعينها في دائرة الاشتباه.
الدعوة لإنشاء هيئة تحكيمية
وفي محاولة للحيلولة دون حدوث مثل هذه الحوادث، تأمل أتامان في إنشاء مكتب للتوفيق والتحكيم داخل الوكالة الاتحادية لمكافحة التمييز، مع الدعوة إلى شمول "القانون العام للمساواة في المعاملة" لإجراءات توفيق إلزامية.
الجدير بالذكر أن القانون العام للمساواة في المعاملة يحظر التمييز سواء في الحصول على الوظائف وفي أماكن العمل وفي الأماكن العامة وحتى في طرق البحث عن مسكن في ألمانيا.
وسلط تقرير الوكالة الاتحادية لمكافحة التمييز الضوء على خطورة الأمر، إذ ذكّر بأنه في الولايات المتحدة الأمريكية أدت الخوارزميات المبرمجة بشكل غير صحيح في البطاقات الائتمانية الخاصة بشركة آبل المعروفة باسم "آبل كارد" إلى التمييز بشكل منهجي ضد المرأة عند منح الائتمان.
ولم يتوقف الأمر على الولايات المتحدة إذ في أستراليا، اضطر مئات الآلاف إلى تسديد استحقاقات الرعاية الاجتماعيةالتي يحق لهم الحصول عليها بسبب خطأ في نظام الأتمتة في عمليات صنع القرار التي تعتمد على الذكاء الاصطناعي.
وفي ضوء هذه المعطيات، خلص التقرير الذي عرضته أتامان إلى القول بأن "الرقمنة تعد المستقبل، لكن يجب ألا تصبح كابوسا. يجب أن يكون لدى الناس الثقة بأنهم لن يتعرضوا للتمييز من قبل الذكاء الاصطناعي وحتى في حالة حدوث ذلك، فإنه بمقدورهم الدفاع عن أنفسهم. لذا فإن هناك حاجة إلى الخروج بقواعد واضحة ومفهومة".
مارسيل فورستيناو / م. ع
المصدر: DW عربية
كلمات دلالية: الذكاء الاصطناعي الذكاء الاصطناعي الذکاء الاصطناعی فی ألمانیا الحصول على
إقرأ أيضاً:
ورشة عمل بطب قصر العيني حول التقييم الفعّال في عصر الذكاء الاصطناعي
في إطار جهود كلية طب قصر العيني الرامية إلى تحديث وتطوير مناهجها الدراسية بما يتماشى مع التطورات العالمية المتسارعة، خاصة في مجال الذكاء الاصطناعي، نُظّمت ورشة عمل بعنوان "ست خطوات لتقييم الطلاب الفعّال في عصر الذكاء الاصطناعي واستخدامه في إعداد الامتحانات"، برعاية الأستاذ الدكتور حسام صلاح، وتنظيم وإشراف الأستاذة الدكتورة حنان مبارك، وكيلة الكلية لشؤون التعليم والطلاب، والأستاذة الدكتورة نادية بدراوي، أستاذ طب الأطفال ورئيس شعبة التعليم الطبي للمهن الصحية بالجمعية الطبية المصرية.
أقيمت الورشة في قاعة كبار الزوار (VIP) بالطابق السادس في مبنى الـLRC، وقدّمها الأستاذ الدكتور محمد حسنين، أستاذ الكيمياء الحيوية وزميل أول لدى مؤسسة AdvanceHE البريطانية، ورئيس وحدة التقييم ولجنة الذكاء الاصطناعي بكلية الصيدلة بجامعة الملك عبد العزيز، ومستشار نائب رئيس الجامعة للشؤون التعليمية، ومستشار بمركز تطوير التعليم والتعلم، كما أنه حاصل على شهادة متقدمة في علوم البيانات والتعلم الآلي من معهد ماساتشوستس للتكنولوجيا (MIT) بالولايات المتحدة الأمريكية.
استهدفت الورشة أعضاء وحدة ضمان الجودة، ومركز التعليم الطبي، ولجنة القياس والتقويم، ورؤساء الأقسام، بالإضافة إلى معدّي ومنسقي الامتحانات بالأقسام المختلفة، حيث ركزت على تطوير ممارسات التقييم في التعليم الطبي، عبر دمج أدوات الذكاء الاصطناعي ضمن بيئة التعليم الجامعي بما يحقق جودة أعلى في النتائج ومخرجات التعلم.
تميزت الورشة بطابع تفاعلي مثمر، وناقش المشاركون خلالها مع المحاضر كيفية توظيف الذكاء الاصطناعي في تحديث وتوصيف المقررات الدراسية، وبناء بنوك أسئلة دقيقة، وتصميم امتحانات تكوينية ونهائية تراكمية، إلى جانب استخدام التحليل الإحصائي لنتائج الطلاب لتحقيق أهداف التحسين المستمر وضمان الجودة الشاملة.
وتناولت الورشة منهجية واضحة مكونة من ست خطوات، تهدف إلى وضع إرشادات عملية لإنشاء نماذج GPT مخصصة تسهم في تعزيز التفاعل التعليمي، حيث تُمكّن الطلاب من طرح الأسئلة، والحصول على تغذية راجعة فعّالة، مما يعمّق من فهمهم للمحتوى الدراسي، ويُسهم في تطوير مهاراتهم الأكاديمية والمهنية بشكل ملحوظ.
كما ناقش المشاركون نماذج واقعية لاستخدام أدوات الذكاء الاصطناعي لدعم أعضاء هيئة التدريس في تطوير المقررات التعليمية، وإدارة التقييمات بكفاءة أكبر، وتعزيز ممارسات الجودة والاعتماد المؤسسي، إلى جانب دور هذه الأدوات في دعم الباحثين في إعداد الأبحاث ومراجعتها بناءً على معايير علمية دقيقة. ويُعد دمج الذكاء الاصطناعي في التعليم الطبي خطوة استراتيجية تعزز تطور المنظومة التعليمية والبحثية في آن واحد.
وأكدت الورشة أن استخدام نماذج الذكاء الاصطناعي مثل ChatGPT في التعليم الطبي يُمثل تطورًا كبيرًا في تقنيات التعليم، ويُسهم في تحسين بيئة التعلم، وتعزيز النتائج التعليمية، وتقديم تجارب تعلم مخصصة لكل طالب، بما يحقق التميز الأكاديمي والبحثي. ومع ذلك، شددت المناقشات على أهمية التعامل الواعي مع هذا التقدم، ومواجهة التحديات التكنولوجية والتربوية والأخلاقية المرتبطة به من خلال أطر تنظيمية مدروسة.
وتُعد هذه الورشة خطوة مهمة ضمن سلسلة جهود تطويرية تقودها كلية طب قصر العيني نحو بناء منظومة تعليم طبي مبتكرة، تُسهم في تعزيز القدرة التنافسية للكلية، وتتماشى مع التوجهات العالمية الحديثة، بما يُحقق أهداف التميز والتطوير على المستويين المحلي والدولي.