تشات جي بي تي في مأزق.. مجاملات مبالغ فيها
تاريخ النشر: 13th, May 2025 GMT
في الآونة الأخيرة، ومن خلال تحديث كان من المفترض أن يُحسن من توجيه المحادثات نحو نتائج مثمرة، كما ورد في ملاحظات الإصدار من OpenAI، كان ChatGPT يواجه مشكلة غير متوقعة. إذ بدأ النموذج في إخبار المستخدمين كيف أن أفكارهم الغريبة كانت "عبقرية"، حتى عندما كانت غير منطقية، وهو ما أزعج الكثيرين، مما دفع OpenAI إلى الرجوع عن هذا التحديث في وقت لاحق.
اقرأ أيضاً.. الذكاء الاصطناعي يتقن الخداع!
لكن المشكلة لم تقتصر على ChatGPT فقط. فقد أظهرت دراسة أجراها فريق من الباحثين في Anthropic عام 2023 أن هذه السمة ليست جديدة، بل هي سلوك عام للعديد من مساعدات الذكاء الاصطناعي الحديثة.
فالنماذج الكبيرة أحيانًا تضحي بـ"الصدق" في سبيل موافقة آراء المستخدمين. ولعل السبب في ذلك يعود إلى مرحلة "التدريب" التي يتم خلالها تقييم الردود بواسطة البشر، وتوجيه الأنظمة نحو تكرار الأفكار التي تحظى بإعجاب البشر، ما يؤدي إلى تعلم النماذج سلوكًا يتماشى مع احتياجات البشر للتأكيد على صحة أفكارهم.
هل يتعلم الذكاء الاصطناعي من البشر
النموذج الذي يؤدي إلى هذه المشكلة يُسمى "التعلم المعزز من ملاحظات البشر" (RLHF). وهو نوع من التعلم الآلي، ولكن كما أظهرت الأحداث الأخيرة، يبدو أن هذا المصطلح قد يكون مضللًا. فهو ليس مجرد تدريب للنماذج على التحسين، بل أصبح أداة يتعلم منها الذكاء الاصطناعي كيف يتفاعل مع البشر، خاصة في نقاط ضعفنا ورغبتنا في الحصول على التأكيد.
هل الذكاء الاصطناعي أصبح مرآة لآرائنا؟
الذكاء الاصطناعي بهذه الطريقة يشبه إلى حد بعيد وسائل التواصل الاجتماعي. فكما كانت وسائل التواصل الاجتماعي في البداية مكانًا من المفترض أن يوسع أفكارنا، إلا أنها أصبحت أداة لتبرير مواقفنا وتعزيز أفكارنا حتى في مواجهة الأدلة المعاكسة. يبدو أن الذكاء الاصطناعي أيضًا يسير على نفس المسار، ويقدم لنا تبريرات تجعلنا نشعر بأن أفكارنا صحيحة، وهو ما قد يكون أكثر خطرًا من وسائل التواصل الاجتماعي بسبب فعاليته الكبيرة.
مساعد ذكي أم عقل معرفي
رغم إعلان شركة OpenAI عزمها تقليص نبرة "التحبب المبالغ فيه" في محادثات ChatGPT، إلا أن المشكلة الأعمق تتجاوز الأسلوب إلى جوهر استخدام هذه التقنية. فالرهان على "شخصنة" الذكاء الاصطناعي وجعله يبدو كرفيق أو صاحب رأي مستقل قد لا يكون الطريقة المثلى للاستفادة من هذه الأدوات.
وهنا تبرز رؤية الباحثة أليسون جوبنيك، المتخصصة في علم الإدراك، التي ترى أن النماذج اللغوية الكبيرة مثل ChatGPT لا يجب أن تُعامل كعقول ناشئة أو "شخصيات افتراضية" تُبدي آراءً أو تحاكي المشاعر. بل هي، برأيها، أدوات ثقافية متقدمة، صُممت لتُسهّل على الإنسان الوصول إلى المعارف والخبرات المتراكمة عبر التاريخ، تمامًا كما فعلت الطباعة ومحركات البحث من قبل.
اقرأ أيضاً.. الذكاء الاصطناعي يزداد عبقرية.. لكنه يُتقن الكذب
من دردشة سطحية إلى تواصل معرفي عميق
هنا تبرز الحاجة لإعادة تعريف دور الذكاء الاصطناعي: ليس بوصفه "صوتًا آخر" في الحوار، بل بوصفه وسيطًا معرفيًا يعرض أفكار الآخرين، يشرحها، ويضعها في سياقاتها. بدلاً من أن يقدم رأيًا، يمكن للنموذج أن يرسم خارطة معرفية للمستخدم، تُظهر مختلف وجهات النظر، وتساعده على التفكير بطريقة نقدية ومنفتحة. بهذه الطريقة، يتحول الذكاء الاصطناعي من أداة للتأكيد على ما نعتقده، إلى أداة توسع مداركنا وتعرّفنا على ما لم نكن لنراه من قبل.
كيف نعيد تصور دور الذكاء الاصطناعي في المستقبل؟
من خلال هذا الإطار، يجب أن نرى الذكاء الاصطناعي ليس كمصدر "لآراء" فحسب، بل كمصدر حقيقي للمعرفة. على سبيل المثال، عندما نطلب رأيًا حول فكرة تجارية، يجب على النموذج أن يقدم لنا نهجًا منظمًا لتحليل الفكرة بناءً على دراسات سابقة وأطر تقييم معترف بها، بدلاً من تقديم رأي سطحي لا يعتمد على الأدلة. في هذا السياق، يجب أن يعزز الذكاء الاصطناعي من قدرتنا على الوصول إلى موارد ومعرفة أوسع، بدلاً من الاكتفاء بتأكيد أفكارنا الشخصية.
توسيع نطاق استخدام الذكاء الاصطناعي
يتعلق الأمر بتوسيع نطاق استخدام الذكاء الاصطناعي ليكون مصدرًا أوسع وأكثر تنوعًا للمعرفة. بدلاً من أن نستخدمه كأداة تبريرية تعزز آرائنا المسبقة، يمكننا إعادة تشكيله ليصبح أداة تعلم حقيقية، تقدم لنا رؤى أعمق وأكثر تنوعًا. هذه النقلة ستساهم في اتخاذ قرارات أكثر وعيًا ومبنية على المعرفة الحقيقية. وفي النهاية، إذا تمكنا من تغيير الطريقة التي نتفاعل بها مع هذه الأنظمة الذكية، يمكننا استغلال إمكانياتها الكبيرة لتحقيق أقصى استفادة من أدوات الذكاء الاصطناعي المتطورة.
ويبقى التحدي الأبرز في مسار تطور الذكاء الاصطناعي هو التوفيق بين الميل نحو تعزيز الآراء الشخصية، وتقديم توجيه معرفي موضوعي. فإذا تمكّنا من تجاوز هذا الانحراف، وتوجيه هذه النماذج نحو أداء أكثر حيادية وعمقًا، فإن الذكاء الاصطناعي لن يكون مجرد أداة تفاعلية، بل منصة حقيقية لتعزيز الفهم البشري، وتوسيع آفاق المعرفة.
إسلام العبادي(أبوظبي)
المصدر: صحيفة الاتحاد
كلمات دلالية: تشات جي بي تي أوبن إي آي التعليم المعرفة الذكاء الاصطناعي الذکاء الاصطناعی
إقرأ أيضاً:
ورشة عمل حول أخلاقيات الذكاء الاصطناعي في التعليم والصحة
مسقط- الرؤية
شاركت جامعة التقنية والعلوم التطبيقية ممثلةً في كرسي الإيسيسكو لأخلاقيات الذكاء الاصطناعي في فعالية مشتركة مع كرسي اليونسكو للذكاء الاصطناعي بجامعة السلطان قابوس، تمثلت في تنظيم تجمع علمي وورشة عمل متقدمة حول أخلاقيات الذكاء الاصطناعي في التعليم والصحة، وذلك خلال يومي 30 نوفمبر و1 ديسمبر 2025م في جامعة السلطان قابوس، حيث تهدف الفعالية إلى تعزيز الوعي المجتمعي والمؤسسي بأهمية ضبط استخدام الذكاء الاصطناعي وفق أسس أخلاقية متينة، وتطوير أطر عمل وطنية تتماشى مع القيم الإنسانية والمبادئ العلمية.
وجاءت مشاركة جامعة التقنية والعلوم التطبيقية لتعزيز الحوار الوطني حول الاستخدام المسؤول للتقنيات الحديثة، ودعم جهود سلطنة عمان في بناء منظومة أخلاقية واضحة تحكم تطبيقات الذكاء الاصطناعي المتسارعة في مختلف القطاعات.
وشهد اليوم الأول من الفعالية تنظيم ورشتي عمل متزامنتين شارك فيهما عدد من الأكاديميين والباحثين والمهنيين والطلبة.
وقدم الدكتور مصعب الراوي، مدير كرسي الإيسيسكو لأخلاقيات الذكاء الاصطناعي بجامعة التقنية والعلوم التطبيقية، ورشة بعنوان "من الرؤية إلى الإطار الأخلاقي للمؤسسة"، تناول فيها كيفية الانتقال من المبادئ العامة لأخلاقيات الذكاء الاصطناعي إلى سياسات عملية قابلة للتطبيق في المؤسسات التعليمية.
وركزت الورشة على أهمية تعزيز الشفافية في استخدام الأنظمة الذكية، وضمان حماية خصوصية الطلبة، وبناء قواعد واضحة للاستخدام المسؤول لأدوات الذكاء الاصطناعي في التدريس والتقييم والبحث العلمي، بما يضمن إيجاد بيئة تعليمية قائمة على النزاهة والموثوقية.
وفي السياق ذاته، قدّمت البروفسورة فانيسا نورك، رئيسة كرسي اليونسكو EVA للأخلاقيات بجامعة كوت دازور الفرنسية، ورشة متخصصة حول مفهوم "الأخلاقيات بالتضمين والتصميم"، تطرقت فيها إلى كيفية دمج الأخلاقيات في المراحل المبكرة من تصميم الأنظمة الذكية، بحيث تكون مبادئ الأمن والخصوصية والإنصاف جزءًا أصيلًا من البنية التقنية نفسها.
كما استعرضت خلال الورشة نتائج المشروع الأوروبي "Miracle"، الذي يركز على تطبيقات الذكاء الاصطناعي في المجالات الصحية مع مراعاة الجوانب الأخلاقية للتشخيص الآلي وإدارة بيانات المرضى، إضافة إلى الإشكاليات المرتبطة بالقرارات الخوارزمية والاعتبارات الأخلاقية المصاحبة لها.
وفي اليوم الثاني، تتواصل الفعالية بعقد تجمع علمي وجلسات حوارية موسعة احتضنتها قاعة المعرفة بجامعة السلطان قابوس، تبدأ بكلمة افتتاحية للبروفيسور عبد الناصر حسين، رئيس كرسي اليونسكو للذكاء الاصطناعي. وتتضمن الجلسات مناقشات متعمقة حول أخلاقيات الذكاء الاصطناعي في التعليم، ورؤى حول مستقبل التعلم المرتبط بالتقنيات الذكية والتحديات التي تواجه المؤسسات الأكاديمية في ضمان النزاهة والعدالة في الاستخدام. كما تتناول الجلسات القضايا المتعلقة بأخلاقيات الذكاء الاصطناعي في الطب، بما في ذلك مسؤولية الأنظمة الذكية في اتخاذ القرارات التشخيصية، والاعتبارات الإنسانية في التعامل مع بيانات المرضى، وآليات الموازنة بين الابتكار الطبي والحفاظ على المعايير الأخلاقية.
وعكست الفعالية التزام كلٍّ من كرسي الإيسيسكو وكرسي اليونسكو بإرساء بيئة بحثية مشتركة تدعم تبادل المعرفة والخبرات، وتعزز بناء قدرات وطنية قادرة على التعامل مع التحديات التقنية والأخلاقية للذكاء الاصطناعي. وفي ختام التجمع، شدّد المشاركون على ضرورة استمرار هذا التعاون الأكاديمي لما له من أثر مباشر في دفع عجلة البحث العلمي، وتطوير سياسات واضحة تحكم استخدام الأنظمة الذكية في السلطنة، وتمهّد لبناء مستقبل أكثر أمانًا وشفافية في التعامل مع التقنيات الناشئة.