الأخلاقيات في الأتمتة: معالجة التحيز في الذكاء الاصطناعي
تاريخ النشر: 29th, May 2025 GMT
مع تزايد اعتماد الشركات على الأنظمة الآلية، أصبحت الأخلاقيات مصدر قلق رئيسي. وباتت الخوارزميات تتخذ، بشكل متزايد، القرارات التي كان يتخذها البشر سابقًا، وتؤثر هذه الأنظمة على العديد من مناحي الحياة. تتطلب هذه القوة، التي يملكها الذكاء الاصطناعي، مسؤولية. فبدون قواعد ومعايير أخلاقية واضحة، يمكن للأتمتة أن تُؤدي إلى الظلم وتُسبب الضرر.
يؤثر التحيز وتجاهل الأخلاقيات على الناس بطرق حقيقية. يمكن للأنظمة المتحيزة، على سبيل المثال، أن ترفض منح القروض أو الوظائف أو الرعاية الصحية، ويمكن للأتمتة أن تزيد من سرعة اتخاذ القرارات الخاطئة في حال عدم وجود حواجز حماية. عندما تتخذ الأنظمة قرارًا خاطئًا، غالبًا ما يكون من الصعب الاعتراض عليه أو حتى فهم السبب، ويؤدي غياب الشفافية إلى تحويل الأخطاء الصغيرة إلى مشاكل أكبر.
سبب التحيز في الذكاء الاصطناعي
غالبًا ما ينشأ التحيز في الأتمتة من البيانات. إذا تضمنت البيانات التاريخية تمييزًا، فقد تُكرر الأنظمة المُدربة عليها هذه الأنماط. على سبيل المثال، قد ترفض أداة ذكاء اصطناعي تُستخدم لفحص المتقدمين للوظائف المرشحين بناءً على الجنس أو العرق أو العمر إذا كانت بيانات التدريب الخاصة بها تعكس تلك التحيزات السابقة. ويدخل التحيز أيضًا من خلال التصميم، حيث يمكن للاختيارات المتعلقة بما يجب قياسه، والنتائج التي يجب تفضيلها، وكيفية تصنيف البيانات أن تؤدي إلى نتائج منحرفة.
هناك أنواع عديدة من التحيز. يحدث تحيز العينات عندما لا تُمثل مجموعة البيانات جميع الفئات، بينما قد ينشأ تحيز التصنيف من مدخلات بشرية ذاتية. حتى الخيارات التقنية، مثل نوع الخوارزمية، قد تُشوّه النتائج.
المشاكل ليست نظرية فحسب. فقد تخلت شركة "أمازون" للتجارة الإلكترونية عن استخدام أداة توظيف في عام 2018 بعد أن فضّلت المرشحين الذكور، ووُجد أن بعض أنظمة التعرف على الوجه تُخطئ في تحديد الأشخاص ذوي البشرة الملونة بمعدلات أعلى من غيرهم. تُزعزع هذه المشاكل الثقة في نماذج الذكاء الاصطناعي وتُثير المخاوف.
وهناك مصدر قلق حقيقي آخر. فحتى عندما لا تُستخدم سمات مثل العرق، بشكل مباشر، فإن سمات أخرى مثل الرمز البريدي أو المستوى التعليمي قد تُمثّل بدائل، مما يعني أن النظام قد يُميّز حتى لو بدت المدخلات محايدة، على سبيل المثال، بناءً على المناطق الأكثر ثراءً أو فقرًا. يصعب اكتشاف التحيز دون اختبار دقيق. ويُعدّ ارتفاع حالات تحيز الذكاء الاصطناعي علامة على الحاجة إلى مزيد من الاهتمام بتصميم النظام.
المعايير المهمة
القوانين تُواكب التطور وتحاول معالجة التحيز. يُصنّف قانون الذكاء الاصطناعي للاتحاد الأوروبي، الصادر عام 2024، أنظمة الذكاء الاصطناعي حسب درجة خطورتها. يجب أن تستوفي الأنظمة عالية الخطورة، كتلك المستخدمة في التوظيف أو تقييم الجدارة الائتمانية، متطلبات صارمة، تشمل الشفافية والرقابة البشرية والتحقق من التحيز. في الولايات المتحدة، تعمل الجهات التنظيمية بفاعلية. وتُحذّر لجنة تكافؤ فرص العمل أصحاب العمل من مخاطر أدوات التوظيف المُدارة بالذكاء الاصطناعي، كما أشارت لجنة التجارة الفيدرالية إلى أن الأنظمة المتحيزة قد تُخالف قوانين مكافحة التمييز.
أنظمة أكثر عدالة
لا تنشأ أخلاقيات الأتمتة صدفة، بل تتطلب تخطيطًا دقيقًا، وأدوات مناسبة، واهتمامًا مستمرًا. يجب دمج التحيز والإنصاف في العملية منذ البداية، لا إضافتهما لاحقًا. وهذا يستلزم تحديد الأهداف، واختيار البيانات المناسبة، وإشراك الأطراف المعنية.
يتطلب تحقيق ذلك اتباع بعض الاستراتيجيات الرئيسية:
إجراء تقييمات التحيز
الخطوة الأولى للتغلب على التحيز هي اكتشافه. يجب إجراء تقييمات التحيز مبكرًا وبشكل متكرر، من مرحلة تطوير النموذج إلى نشره، لضمان عدم تحقيق الأنظمة لنتائج غير عادلة. قد تشمل المقاييس القرارات التي يكون لها تأثير أكبر على مجموعة واحدة من غيرها.
يجب أن تُجري جهات خارجية عمليات تدقيق التحيز كلما أمكن ذلك. قد تُغفل المراجعات الداخلية قضايا رئيسية أو تفتقر إلى الاستقلالية، كما أن الشفافية في عمليات التدقيق الموضوعية تبني ثقة الجمهور.
مجموعات بيانات متنوعة
تساعد بيانات التدريب المتنوعة على تقليل التحيز من خلال تضمين عينات من جميع مجموعات المستخدمين، وخاصةً تلك التي غالبًا ما يتم استبعادها. فمساعد صوتي مُدرّب في الغالب على أصوات الرجال لن يُجدي نفعًا مع النساء، ونموذج تقييم الائتمان الذي يفتقر إلى بيانات المستخدمين ذوي الدخل المحدود قد يُسيء تقديرهم.
يساعد تنوع البيانات أيضًا النماذج على التكيف مع الاستخدام الفعلي. ينتمي المستخدمون إلى خلفيات مختلفة، وينبغي أن تعكس الأنظمة ذلك. فالتنوع الجغرافي والثقافي واللغوي جميعها عوامل مهمة. تنوع البيانات لا يكفي بمفرده. فيجب أن تكون دقيقة ومُصنّفة جيدًا.
الشمولية في التصميم
يُشرك التصميم الشامل الأشخاص المتأثرين. ينبغي على المطورين استشارة المستخدمين، وخاصةً المعرضين لخطر الضرر (أو الذين قد يُسببون ضررًا باستخدام الذكاء الاصطناعي المتحيز)، لأن ذلك يُساعد على كشف الجوانب السلبية.
يعني التصميم الشامل أيضًا فرقًا متعددة التخصصات. إن إشراك خبراء الأخلاق والقانون والعلوم الاجتماعية يُمكن أن يُحسّن عملية اتخاذ القرار، لأن هذه الفرق أكثر ميلًا لطرح أسئلة مختلفة ورصد المخاطر.
يجب أن تكون الفرق متنوعة أيضًا. فالأشخاص ذوو التجارب الحياتية المختلفة يكتشفون قضايا مختلفة، والنظام الذي تُنشئه مجموعة متجانسة قد يتغاضى عن مخاطر قد يكتشفها الآخرون.
الخلاصة أن الأتمتة باقية، لكن الثقة في أنظمة الذكاء الاصطناعي تعتمد على عدالة النتائج ووضوح القواعد. إذ قد يُسبب التحيز في أنظمة الذكاء الاصطناعي ضررًا. أخبار ذات صلة
المصدر: صحيفة الاتحاد
كلمات دلالية: الأخلاق الأتمتة الذكاء الاصطناعي الذکاء الاصطناعی التحیز فی یجب أن ت
إقرأ أيضاً:
الذكاء الاصطناعي يقلب موازين البحث في في غوغل
يُعد هذا التوسع امتدادًا للتحول الذي بدأتْه غوغل قبل عام، حين أطلقت ملخصات محادثة تحت اسم "ملخصات الذكاء الاصطناعي"، والتي تظهر بشكل متزايد في أعلى صفحة النتائج، وتحتل مكانةً أعلى من الروابط التقليدية في نتائج البحث.
وبحسب ما أعلنت غوغل، فإن نحو 1.5 مليار شخص يتفاعلون بانتظام مع هذه الملخصات، كما أصبح المستخدمون يدخلون استفسارات أطول وأكثر تعقيدًا.
وفي كلمة أمام حضور كبير في قاعة مؤتمرات قريبة من مقر الشركة في ماونتن فيو بكاليفورنيا، قال سوندار بيتشاي، الرئيس التنفيذي لشركة غوغل: "كل هذا التقدم يعني أننا دخلنا مرحلة جديدة في تطور منصتنا المبنية على الذكاء الاصطناعي، حيث تحولت عقود من الأبحاث إلى واقع يستفيد منه الناس في كل أنحاء العالم".
الذكاء الاصطناعي يُعيد تشكيل سلوك المستخدم
وعلى الرغم من توقعات سوندار بيتشاي وفريق الإدارة في غوغل بأن ميزة "النظرة العامة للذكاء الاصطناعي" ستزيد من عمليات البحث والنقر على الروابط، إلا أن الواقع لم يكن على هذا النحو حتى الآن، بحسب بيانات شركة BrightEdge المتخصصة في تحسين محركات البحث.
وأظهرت دراسة حديثة أجرتها الشركة انخفاضًا بنسبة 30% في معدلات النقر على نتائج بحث غوغل خلال العام الماضي، مشيرة إلى أن السبب الرئيسي هو اكتفاء المستخدمين بالمعلومات المقدمة عبر الملخصات الذكية دون الحاجة للنقر على الروابط.
ويُعد قرار إتاحة "وضع الذكاء الاصطناعي" على نطاق واسع بعد فترة اختبار قصيرة دليلًا على ثقة غوغل في دقة التكنولوجيا وعدم انتشار المعلومات المضللة عبرها، وهو ما يعكس أيضًا وعي الشركة بالمنافسة الشديدة التي تواجهها من أدوات بحث أخرى مدعومة بالذكاء الاصطناعي مثل ChatGPT وPerplexity.
الصعود السريع للذكاء الاصطناعي يُعيد رسم خريطة المنافسة
برز الصعود السريع لبدائل الذكاء الاصطناعي كمصدر اهتمام رئيسي في الإجراءات القانونية التي قد تؤدي إلى اضطرار غوغل إلى إعادة هيكلة أجزاء من إمبراطوريتها على الإنترنت، بعد أن أعلن قاضٍ فيدرالي أمريكي أن محرك بحث الشركة يمثل احتكارًا غير قانوني.
وأفاد إيدي كيو، المدير التنفيذي لشركة Apple، خلال شهادته في المحاكمة مبكرًا هذا الشهر، بأن عمليات البحث عبر غوغل من خلال متصفح Safari على iPhone انخفضت، نتيجة تحول المستخدمين إلى بدائل تعتمد على الذكاء الاصطناعي.
وأشارت غوغل إلى التغيرات الناتجة عن صعود الذكاء الاصطناعي كسبب رئيس لضرورة إجراء تعديلات طفيفة فقط على آلية عمل محرك بحثها، مشيرة إلى أن هذه التكنولوجيا تعيد تشكيل المشهد التنافسي بشكل جذري.
لكن على ما يبدو، فإن الاعتماد المتزايد لغوغل على الذكاء الاصطناعي حتى الآن ساعد محرك بحثها في الحفاظ على مكانته كبوابة رئيسية للإنترنت، وهو العامل الرئيسي الذي يجعل قيمتها السوقية ضمن شركتها الأم ألفابت تصل إلى تريليوني دولار (1.8 تريليون يورو).
وبحسب بيانات جمعها موقع onelittleweb.com، بلغ عدد زيارات غوغل الشهرية خلال العام المنتهي في مارس الماضي 136 مليار زيارة، أي ما يعادل 34 ضعف الزيارات الشهرية لموقع ChatGPT البالغة أربعة مليارات زيارة.
وعند سؤال "وضع الذكاء الاصطناعي" الخاص بغوغل من قبل صحفي في وكالة أسوشيتد برس، عما إذا كان اعتماد الذكاء الاصطناعي قد يؤثر سلبًا على محرك البحث، أكد أن ذلك غير محتمل، مشيرًا إلى أنه قد يعزز مكانة الشركة أكثر.
ورد "وضع الذكاء الاصطناعي": "نعم، من المحتمل جدًا أن يجعل هذا الوضع شركة غوغل أقوى، خاصةً في مجال الوصول إلى المعلومات والتأثير على الإنترنت". وحذّرت الميزة أيضًا من أن الناشرين على الويب قد يواجهون انخفاضًا في الزيارات القادمة من نتائج البحث.