المرآة الأخلاقية: كيف يدفعنا الذكاء الاصطناعي لإعادة النظر في منظومتنا الأخلاقية؟
تاريخ النشر: 30th, November 2024 GMT
في سعينا لابتكار آلات قادرة على التنّقل بين تعقيدات الأخلاق البشرية؛ سنجد أنفسنا نواجه حقائق غير مريحة تتعلق بطبيعة الأخلاق نفسها؛ إذ دفعتنا التطويرات المتسارعة في الذكاء الاصطناعي إلى عصرٍ لم تعد فيه الآلات -الأنظمة الذكية- باعتبارها أدوات رقمية وحسب، بل أصبحت صانعة قرارات بارزة في سيناريوهات تحمل تداعيات أخلاقية عبورا من السيارات ذاتية القيادة التي تُجبر على الاختيار بين نتيجتين ضارتين ووصولا إلى الخوارزميات التي تحدد مصير طالبي القروض، ولهذا يزداد ارتباط الذكاء الاصطناعي بالقضايا الأخلاقية، ويقودنا هذا إلى طرح تساؤل مفاده: أيمكننا حقًا غرس الأخلاق في خوارزميات الذكاء الاصطناعي؟ وما الذي يكشفه هذا السعي عن منظومتنا الأخلاقية بصورتها الكاملة؟
من الصعب أن نعتبر الأخلاق مفهومًا موحّدًا، ولكنها نسيج متنوع يتداخل فيه البعد الثقافي والاجتماعي والفردي، وتتباين معاييره بين المجتمعات والأفراد، ومع أيّ محاولة لاختزال هذا التعقيد في سطور برمجية "الخوارزمية"؛ ستنكشف لنا الصعوبات الكامنة في ذلك استنادا إلى المبدأ الفلسفي وليس العلمي، وفي هذا السياق، يمكن أن نقتبس ما قاله الكاتب "Paul Bloom" في مقال بعنوان "كيف يمكن للذكاء الاصطناعي أن يكون أخلاقيا حقا؟" في مجلة "The New Yorker": "من التحديات في خوارزمية الأخلاق وبرمجته داخل الذكاء الاصطناعي أن البشر أنفسهم لا يتفقون على ما يُعتبر سلوكًا أخلاقيا".
يظن بعضنا أن الذكاء الاصطناعي يمكنه اتخاذ قرارات موضوعية بعيدة عن التأثيرات العاطفية أو غير المنطقية، ولكن الأخلاق ذاتها ليست موضوعية؛ فما يفترضه مجتمعٌ ما مقبولًا، يراه مجتمعٌ آخر مرفوضًا، ويشكّل هذا التباين تحديًا كبيرًا لتطوير المبدأ الأخلاقي في الذكاء الاصطناعي. في منحنى آخر، عندما يتخذ النموذج الذكي قرارات تتماشى بدقة مع المعايير الخوارزمية؛ فإن النموذج يمنح الأولوية للفائدة العامة بطريقة تتجاهل الحقوق الفردية أو الأضرار العاطفية، وهذا ما يمكن أن يكون تصادما مع القيم الإنسانية التي تحاول أن توازن بين المصالح العامة والخاصة، ويمكن تقريب المشهد عبر مثال يتناول منح الذكاء الاصطناعي صالحية رفع الإنتاجية في مكان العمل، ولتحقيق هذه الغاية وفق مستوياتها العليا؛ سيتعيّن اتباع بعض السياسات التي يمكن أن تكون في بعض حالاتها -الفردية- غير عادلة؛ فتؤدي إلى إنهاك الموظفين أو فقدان الوظائف نظرا لوجود الأولوية للإنتاجية على حساب المصالح الفردية.
مع تسارع مشهد تطويرات تقنيات الذكاء الاصطناعي واتساع رقعة توظيفها؛ سيكون من الضروري الإسراع إلى تبنّي أطر تنظيمية قوية معنية بالجانب الأخلاقي، وينبغي على الحكومات والهيئات الدولية التعامل مع هذه القضية باعتبارها أولوية رئيسة عبر وضع معايير تضمن تشغيل أنظمة الذكاء الاصطناعي ضمن حدود أخلاقية مقبولة تشمل معالجة قضايا مثل الخصوصية والموافقة وتعدد الاحتمالات ذات الطابع الأخلاقي للقرارات التي يتّخذها الذكاء الاصطناعي. تمثّل تشريعات مثل اللائحة العامة لحماية البيانات في الاتحاد الأوروبي (GDPR) خطوة جيدة نحو محاسبة الذكاء الاصطناعي وتأطير منظومته الأخلاقية، ولكن، لا يمكن للقوانين وحدها أن تضمن توظيفًا أخلاقيًا للذكاء الاصطناعي؛ فيقع عاتق المسؤولية على الجميع بدءا من التقنيين -مصنّعي أنظمة الذكاء الاصطناعي- وانتهاءً بالسياسيين المعنيين بمراقبة سلوك الذكاء الاصطناعي واستعمالاته، وهذا ما يدعو إلى تصميم ذكاء اصطناعي يتوافق مع المبادئ الأخلاقية الرئيسة المتفق عليها من قبل المجتمعات الإنسانية، ويقترح بعض الباحثين إلى تطوير ذكاء اصطناعي يمكنه شرح عمليات اتخاذ قراراته -وفقَ منطق يُعرف باسم الذكاء الاصطناعي القابل للتفسير الذي يُختصر إلى (XAI)- وهذا ما يسهم في اقتران الذكاء الاصطناعي وتوليده للقرارات بشفافية؛ لتمكّن البشر من فهم منطق قرارات الذكاء الاصطناعي وكبحه عند أيّ منزلق أخلاقي.
بتضاعف تفاعل الذكاء الاصطناعي في مختلف جوانب الحياة، من المحتمل أن يصبح تأثيره على الأخلاق البشرية متبادلاً؛ فنبدأ في تبنّي معايير أخلاقية تتماشى مع منطق الذكاء الاصطناعي، سواء إلى الأفضل أو إلى الأسوأ، تماشيا مع متطلبات المنطق الرقمي، وهذا ما سبق أن طرحناه من وجهة نظر علمية تتمثّل في مشروع "أنسنة الذكاء الاصطناعي ورقمنة الإنسان وفق مبدأ التوأمة"، وهنا نجد تحديا جديدا يعكس معضلةً أخلاقية أخرى نظن -جهلا- أننا نحاول بواسطتها أن نتجاوز معضلة تحقيق السمو الأخلاقي المطلق في خوارزميات الذكاء الاصطناعي، ولهذا يظل السعي لتحقيق ذكاء اصطناعي أخلاقي بمضمونه المطلق تحديا عويصا من الناحية الفلسفية العميقة، وليس من الناحية التقنية، ورغم ذلك، سيكشف هذا السعي عن هشاشة مفاهيمنا الأخلاقية؛ فيدفعنا لإعادة النظر في ما يعنيه أن نكون كائنات بشرية أخلاقية قبل أن نطرق العنان إلى تأطير المنهج الأخلاقي في الذكاء الاصطناعي، ولهذا سنحتاج أن نعيد ترتيب أولوياتنا من ناحية البناء الأخلاقي؛ بحيث لا تبدأ في الآلات الرقمية التي يمكنها اتخاذ قرارات أخلاقية باعتبارها مرآة أخلاقية تعكس أخلاق البشرية وممارساتهم، بل تكون بداية من البشرية التي تحتاج إلى إعادتها إلى جوهر الأخلاق بشكل أفضل.
د. معمر بن علي التوبي أكاديمي وباحث عُماني
المصدر: لجريدة عمان
كلمات دلالية: أنظمة الذکاء الاصطناعی ذکاء اصطناعی یمکن أن وهذا ما
إقرأ أيضاً:
ورشة عمل بطب قصر العيني حول التقييم الفعّال في عصر الذكاء الاصطناعي
في إطار جهود كلية طب قصر العيني الرامية إلى تحديث وتطوير مناهجها الدراسية بما يتماشى مع التطورات العالمية المتسارعة، خاصة في مجال الذكاء الاصطناعي، نُظّمت ورشة عمل بعنوان "ست خطوات لتقييم الطلاب الفعّال في عصر الذكاء الاصطناعي واستخدامه في إعداد الامتحانات"، برعاية الأستاذ الدكتور حسام صلاح، وتنظيم وإشراف الأستاذة الدكتورة حنان مبارك، وكيلة الكلية لشؤون التعليم والطلاب، والأستاذة الدكتورة نادية بدراوي، أستاذ طب الأطفال ورئيس شعبة التعليم الطبي للمهن الصحية بالجمعية الطبية المصرية.
أقيمت الورشة في قاعة كبار الزوار (VIP) بالطابق السادس في مبنى الـLRC، وقدّمها الأستاذ الدكتور محمد حسنين، أستاذ الكيمياء الحيوية وزميل أول لدى مؤسسة AdvanceHE البريطانية، ورئيس وحدة التقييم ولجنة الذكاء الاصطناعي بكلية الصيدلة بجامعة الملك عبد العزيز، ومستشار نائب رئيس الجامعة للشؤون التعليمية، ومستشار بمركز تطوير التعليم والتعلم، كما أنه حاصل على شهادة متقدمة في علوم البيانات والتعلم الآلي من معهد ماساتشوستس للتكنولوجيا (MIT) بالولايات المتحدة الأمريكية.
استهدفت الورشة أعضاء وحدة ضمان الجودة، ومركز التعليم الطبي، ولجنة القياس والتقويم، ورؤساء الأقسام، بالإضافة إلى معدّي ومنسقي الامتحانات بالأقسام المختلفة، حيث ركزت على تطوير ممارسات التقييم في التعليم الطبي، عبر دمج أدوات الذكاء الاصطناعي ضمن بيئة التعليم الجامعي بما يحقق جودة أعلى في النتائج ومخرجات التعلم.
تميزت الورشة بطابع تفاعلي مثمر، وناقش المشاركون خلالها مع المحاضر كيفية توظيف الذكاء الاصطناعي في تحديث وتوصيف المقررات الدراسية، وبناء بنوك أسئلة دقيقة، وتصميم امتحانات تكوينية ونهائية تراكمية، إلى جانب استخدام التحليل الإحصائي لنتائج الطلاب لتحقيق أهداف التحسين المستمر وضمان الجودة الشاملة.
وتناولت الورشة منهجية واضحة مكونة من ست خطوات، تهدف إلى وضع إرشادات عملية لإنشاء نماذج GPT مخصصة تسهم في تعزيز التفاعل التعليمي، حيث تُمكّن الطلاب من طرح الأسئلة، والحصول على تغذية راجعة فعّالة، مما يعمّق من فهمهم للمحتوى الدراسي، ويُسهم في تطوير مهاراتهم الأكاديمية والمهنية بشكل ملحوظ.
كما ناقش المشاركون نماذج واقعية لاستخدام أدوات الذكاء الاصطناعي لدعم أعضاء هيئة التدريس في تطوير المقررات التعليمية، وإدارة التقييمات بكفاءة أكبر، وتعزيز ممارسات الجودة والاعتماد المؤسسي، إلى جانب دور هذه الأدوات في دعم الباحثين في إعداد الأبحاث ومراجعتها بناءً على معايير علمية دقيقة. ويُعد دمج الذكاء الاصطناعي في التعليم الطبي خطوة استراتيجية تعزز تطور المنظومة التعليمية والبحثية في آن واحد.
وأكدت الورشة أن استخدام نماذج الذكاء الاصطناعي مثل ChatGPT في التعليم الطبي يُمثل تطورًا كبيرًا في تقنيات التعليم، ويُسهم في تحسين بيئة التعلم، وتعزيز النتائج التعليمية، وتقديم تجارب تعلم مخصصة لكل طالب، بما يحقق التميز الأكاديمي والبحثي. ومع ذلك، شددت المناقشات على أهمية التعامل الواعي مع هذا التقدم، ومواجهة التحديات التكنولوجية والتربوية والأخلاقية المرتبطة به من خلال أطر تنظيمية مدروسة.
وتُعد هذه الورشة خطوة مهمة ضمن سلسلة جهود تطويرية تقودها كلية طب قصر العيني نحو بناء منظومة تعليم طبي مبتكرة، تُسهم في تعزيز القدرة التنافسية للكلية، وتتماشى مع التوجهات العالمية الحديثة، بما يُحقق أهداف التميز والتطوير على المستويين المحلي والدولي.