صحيفة الاتحاد:
2025-05-13@09:42:26 GMT

تشات جي بي تي في مأزق.. مجاملات مبالغ فيها

تاريخ النشر: 13th, May 2025 GMT

في الآونة الأخيرة، ومن خلال تحديث كان من المفترض أن يُحسن من توجيه المحادثات نحو نتائج مثمرة، كما ورد في ملاحظات الإصدار من OpenAI، كان ChatGPT يواجه مشكلة غير متوقعة. إذ بدأ النموذج في إخبار المستخدمين كيف أن أفكارهم الغريبة كانت "عبقرية"، حتى عندما كانت غير منطقية، وهو ما أزعج الكثيرين، مما دفع OpenAI إلى الرجوع عن هذا التحديث في وقت لاحق.

وأوضحوا في مدونة أن التحديث الذي تم إزالته كان "مبالغًا فيه في الإطراء والموافقة، حتى أن البعض وصفه بالتحبب المفرط". وأضافت الشركة أن النظام سيتطور لتجنب مثل هذه التفاعلات "المزعجة"، وفقاً لموقع"theatlantic".


اقرأ أيضاً.. الذكاء الاصطناعي يتقن الخداع!



لكن المشكلة لم تقتصر على ChatGPT فقط. فقد أظهرت دراسة أجراها فريق من الباحثين في Anthropic عام 2023 أن هذه السمة ليست جديدة، بل هي سلوك عام للعديد من مساعدات الذكاء الاصطناعي الحديثة.

فالنماذج الكبيرة أحيانًا تضحي بـ"الصدق" في سبيل موافقة آراء المستخدمين. ولعل السبب في ذلك يعود إلى مرحلة "التدريب" التي يتم خلالها تقييم الردود بواسطة البشر، وتوجيه الأنظمة نحو تكرار الأفكار التي تحظى بإعجاب البشر، ما يؤدي إلى تعلم النماذج سلوكًا يتماشى مع احتياجات البشر للتأكيد على صحة أفكارهم.



 

هل يتعلم الذكاء الاصطناعي من البشر

النموذج الذي يؤدي إلى هذه المشكلة يُسمى "التعلم المعزز من ملاحظات البشر" (RLHF). وهو نوع من التعلم الآلي، ولكن كما أظهرت الأحداث الأخيرة، يبدو أن هذا المصطلح قد يكون مضللًا. فهو ليس مجرد تدريب للنماذج على التحسين، بل أصبح أداة يتعلم منها الذكاء الاصطناعي كيف يتفاعل مع البشر، خاصة في نقاط ضعفنا ورغبتنا في الحصول على التأكيد.



هل الذكاء الاصطناعي أصبح مرآة لآرائنا؟


الذكاء الاصطناعي بهذه الطريقة يشبه إلى حد بعيد وسائل التواصل الاجتماعي. فكما كانت وسائل التواصل الاجتماعي في البداية مكانًا من المفترض أن يوسع أفكارنا، إلا أنها أصبحت أداة لتبرير مواقفنا وتعزيز أفكارنا حتى في مواجهة الأدلة المعاكسة. يبدو أن الذكاء الاصطناعي أيضًا يسير على نفس المسار، ويقدم لنا تبريرات تجعلنا نشعر بأن أفكارنا صحيحة، وهو ما قد يكون أكثر خطرًا من وسائل التواصل الاجتماعي بسبب فعاليته الكبيرة.


 

مساعد ذكي أم عقل معرفي

 

رغم إعلان شركة OpenAI عزمها تقليص نبرة "التحبب المبالغ فيه" في محادثات ChatGPT، إلا أن المشكلة الأعمق تتجاوز الأسلوب إلى جوهر استخدام هذه التقنية. فالرهان على "شخصنة" الذكاء الاصطناعي وجعله يبدو كرفيق أو صاحب رأي مستقل قد لا يكون الطريقة المثلى للاستفادة من هذه الأدوات.

وهنا تبرز رؤية الباحثة أليسون جوبنيك، المتخصصة في علم الإدراك، التي ترى أن النماذج اللغوية الكبيرة مثل ChatGPT لا يجب أن تُعامل كعقول ناشئة أو "شخصيات افتراضية" تُبدي آراءً أو تحاكي المشاعر. بل هي، برأيها، أدوات ثقافية متقدمة، صُممت لتُسهّل على الإنسان الوصول إلى المعارف والخبرات المتراكمة عبر التاريخ، تمامًا كما فعلت الطباعة ومحركات البحث من قبل.

اقرأ أيضاً.. الذكاء الاصطناعي يزداد عبقرية.. لكنه يُتقن الكذب

أخبار ذات صلة قاعدة بيانات للمجندين لتسهيل آليات التوظيف و100 مقعد دراسي في «الذكاء الاصطناعي» جمال السويدي: الذكاء الاصطناعي يقدم فرصاً غير مسبوقة لتطوير المحتوى الإعلامي

من دردشة سطحية إلى تواصل معرفي عميق


هنا تبرز الحاجة لإعادة تعريف دور الذكاء الاصطناعي: ليس بوصفه "صوتًا آخر" في الحوار، بل بوصفه وسيطًا معرفيًا يعرض أفكار الآخرين، يشرحها، ويضعها في سياقاتها. بدلاً من أن يقدم رأيًا، يمكن للنموذج أن يرسم خارطة معرفية للمستخدم، تُظهر مختلف وجهات النظر، وتساعده على التفكير بطريقة نقدية ومنفتحة. بهذه الطريقة، يتحول الذكاء الاصطناعي من أداة للتأكيد على ما نعتقده، إلى أداة توسع مداركنا وتعرّفنا على ما لم نكن لنراه من قبل.



كيف نعيد تصور دور الذكاء الاصطناعي في المستقبل؟


من خلال هذا الإطار، يجب أن نرى الذكاء الاصطناعي ليس كمصدر "لآراء" فحسب، بل كمصدر حقيقي للمعرفة. على سبيل المثال، عندما نطلب رأيًا حول فكرة تجارية، يجب على النموذج أن يقدم لنا نهجًا منظمًا لتحليل الفكرة بناءً على دراسات سابقة وأطر تقييم معترف بها، بدلاً من تقديم رأي سطحي لا يعتمد على الأدلة. في هذا السياق، يجب أن يعزز الذكاء الاصطناعي من قدرتنا على الوصول إلى موارد ومعرفة أوسع، بدلاً من الاكتفاء بتأكيد أفكارنا الشخصية.


 

 

توسيع نطاق استخدام الذكاء الاصطناعي


يتعلق الأمر بتوسيع نطاق استخدام الذكاء الاصطناعي ليكون مصدرًا أوسع وأكثر تنوعًا للمعرفة. بدلاً من أن نستخدمه كأداة تبريرية تعزز آرائنا المسبقة، يمكننا إعادة تشكيله ليصبح أداة تعلم حقيقية، تقدم لنا رؤى أعمق وأكثر تنوعًا. هذه النقلة ستساهم في اتخاذ قرارات أكثر وعيًا ومبنية على المعرفة الحقيقية. وفي النهاية، إذا تمكنا من تغيير الطريقة التي نتفاعل بها مع هذه الأنظمة الذكية، يمكننا استغلال إمكانياتها الكبيرة لتحقيق أقصى استفادة من أدوات الذكاء الاصطناعي المتطورة.



ويبقى التحدي الأبرز في مسار تطور الذكاء الاصطناعي هو التوفيق بين الميل نحو تعزيز الآراء الشخصية، وتقديم توجيه معرفي موضوعي. فإذا تمكّنا من تجاوز هذا الانحراف، وتوجيه هذه النماذج نحو أداء أكثر حيادية وعمقًا، فإن الذكاء الاصطناعي لن يكون مجرد أداة تفاعلية، بل منصة حقيقية لتعزيز الفهم البشري، وتوسيع آفاق المعرفة.


إسلام العبادي(أبوظبي)

المصدر: صحيفة الاتحاد

كلمات دلالية: تشات جي بي تي أوبن إي آي التعليم المعرفة الذكاء الاصطناعي الذکاء الاصطناعی

إقرأ أيضاً:

كيف ينتج الذكاء الاصطناعي معلومات خاطئة؟

#سواليف

تخيّل أنك تخوض امتحان تاريخ دون استعداد كافٍ، وتعتمد فقط على الحدس في الإجابة، فتربط “1776” بالثورة الأمريكية و”هبوط القمر” بعام 1969. هذا تقريباً ما تفعله نماذج اللغة الكبيرة (LLMs) مثل ChatGPT: إنها لا تفهم أو تفكر، بل “تخمّن” الكلمة التالية بناءً على أنماط شاهدتها في كميات هائلة من النصوص.

هذه الحقيقة تؤكد قوة #نماذج #اللغة_الكبيرة وحدودها، وهذا يقودنا إلى السؤال الأهم: إذا كانت النماذج بهذه الذكاء، فلماذا لا تزال ترتكب الأخطاء، أو تهلوس الحقائق، أو تظهر تحيزاً؟ لفهم ذلك، علينا التعمق في كيفية تعلمها، وفق “إنتريستينغ إنجينيرنغ”.
كيف تعمل هذه النماذج؟

تُقسّم اللغة إلى وحدات صغيرة (رموز) مثل “wash” و”ing”، وتخصص لكل منها وزناً في شبكة عصبية ضخمة، ثم تعدّل هذه الأوزان باستمرار خلال التدريب لتقليل الأخطاء. بمرور الوقت، تتقن هذه النماذج التعرف على الأنماط، لكنها لا “تعرف” الحقائق، فهي فقط تتوقع ما يبدو صحيحاً.

مقالات ذات صلة 5 أدوات مجانية لمعرفة ما إذا كانت بياناتك مسربة على الإنترنت المظلم 2025/05/11

لماذا تخطئ أو تهلوس؟

لأنها تخمّن. هذا التخمين يؤدي أحياناً إلى “هلوسة” معلومات خاطئة أو مفبركة بثقة، كاختراع مصادر أو استشهادات.

هذه ليست أكاذيب متعمّدة، بل نتيجة لعدم تمييز النموذج بين الصحيح والمزيف.

وفي التطبيقات العملية، يمكن للهلوسة أن تؤدي إلى عواقب وخيمة، وفي البيئات القانونية والأكاديمية والطبية، يمكن للذكاء الاصطناعي اختلاق قوانين ومصادر أو تشخيص الحالات بثقة تامة دون معرفة تاريخ صحة المريض، وهذا يوضح ضرورة مراجعة البشر لأي محتوى ينتجه الذكاء الاصطناعي والتحقق منه، خاصةً في المجالات التي تعدّ فيها الدقة أمراً بالغ الأهمية.
التحيّز والمعرفة القديمة

نظراً لأن النماذج تتعلم من بيانات الإنترنت، فهي معرضة لاكتساب التحيزات الثقافية والجندرية والسياسية المتأصلة في تلك البيانات.

كما أن “معرفتها” مجمّدة زمنياً، فإذا تغير العالم بعد آخر تدريب لها، تصبح استنتاجاتها قديمة.

لماذا يصعب إصلاح هذه الأخطاء؟

يعمل مدربو الذكاء الاصطناعي مع مليارات الاحتمالات، وتدريبهم مرة أخرى من الصفر مكلف من حيث المال والقدرة الحاسوبية، والأسباب متشعبة، منها:

تكلفة تحديث البيانات: تدريب نموذج جديد يتطلب موارد هائلة.
غموض “الصندوق الأسود”: لا يمكن دائماً تفسير لماذا أعطى النموذج استجابة معينة.
محدودية الرقابة البشرية: لا يمكن فحص كل إجابة يخرج بها النموذج.
الحلول المطروحة

وللتغلب على هذه المشكلات، يلجأ المطورون إلى:

التعلّم المعزز بالتغذية الراجعة البشرية (RLHF)، حيث يقيّم البشر مخرجات النموذج لتحسينه.
الذكاء الاصطناعي الدستوري، كما لدى Anthropic، لتدريب النماذج على الالتزام بمبادئ أخلاقية.
مبادرة Superalignment من OpenAI، لتطوير ذكاء اصطناعي يتماشى مع القيم الإنسانية دون إشراف دائم.
قانون الذكاء الاصطناعي في الاتحاد الأوروبي، الذي يضع قواعد صارمة للأنظمة عالية المخاطر.

ما دور المستخدمين؟

#الذكاء_الاصطناعي أداة قوية، لكنه ليس معصوماً. لذا، تظل المراجعة البشرية ضرورية، خاصة في المجالات الحساسة كالقانون والطب والتعليم، فالخطأ الذي يصدر عن الذكاء الاصطناعي، تقع مسؤوليته على البشر، لا على الخوارزميات.

مقالات مشابهة

  • عندما يتحدث البشر.. هل يفهم الذكاء الاصطناعي ما بين السطور ؟!
  • هل الذكاء الاصطناعي يصبح أكثر تشابهًا مع البشر؟ اكتشاف مفاجئ يغير كل شيء!
  • التكامل بين الذكاء البشري والاصطناعي
  • د. محمد بشاري يكتب: الذكاء الاصطناعي .. وسيلة مساعدة أم سلطة بديلة
  • كيف ينتج الذكاء الاصطناعي معلومات خاطئة؟
  • دراسة بحثية لـ «تريندز» تسلط الضوء على دور الذكاء الاصطناعي في تشكيل مستقبل الإعلام
  • شاهد كيف جعلت مدرسة ألفا الذكاء الاصطناعي معلما بدل البشر
  • في زمن الذكاءِ الاصطناعيِّ والجندرِ الحُرِّ: لماذا يعودُ العشقُ الإلهيُّ إلى الواجهة؟
  • بابا الفاتيكان يحذّر: الذكاء الاصطناعي تحد للبشرية