تشات جي بي تي في مأزق.. مجاملات مبالغ فيها
تاريخ النشر: 13th, May 2025 GMT
في الآونة الأخيرة، ومن خلال تحديث كان من المفترض أن يُحسن من توجيه المحادثات نحو نتائج مثمرة، كما ورد في ملاحظات الإصدار من OpenAI، كان ChatGPT يواجه مشكلة غير متوقعة. إذ بدأ النموذج في إخبار المستخدمين كيف أن أفكارهم الغريبة كانت "عبقرية"، حتى عندما كانت غير منطقية، وهو ما أزعج الكثيرين، مما دفع OpenAI إلى الرجوع عن هذا التحديث في وقت لاحق.
اقرأ أيضاً.. الذكاء الاصطناعي يتقن الخداع!
لكن المشكلة لم تقتصر على ChatGPT فقط. فقد أظهرت دراسة أجراها فريق من الباحثين في Anthropic عام 2023 أن هذه السمة ليست جديدة، بل هي سلوك عام للعديد من مساعدات الذكاء الاصطناعي الحديثة.
فالنماذج الكبيرة أحيانًا تضحي بـ"الصدق" في سبيل موافقة آراء المستخدمين. ولعل السبب في ذلك يعود إلى مرحلة "التدريب" التي يتم خلالها تقييم الردود بواسطة البشر، وتوجيه الأنظمة نحو تكرار الأفكار التي تحظى بإعجاب البشر، ما يؤدي إلى تعلم النماذج سلوكًا يتماشى مع احتياجات البشر للتأكيد على صحة أفكارهم.
هل يتعلم الذكاء الاصطناعي من البشر
النموذج الذي يؤدي إلى هذه المشكلة يُسمى "التعلم المعزز من ملاحظات البشر" (RLHF). وهو نوع من التعلم الآلي، ولكن كما أظهرت الأحداث الأخيرة، يبدو أن هذا المصطلح قد يكون مضللًا. فهو ليس مجرد تدريب للنماذج على التحسين، بل أصبح أداة يتعلم منها الذكاء الاصطناعي كيف يتفاعل مع البشر، خاصة في نقاط ضعفنا ورغبتنا في الحصول على التأكيد.
هل الذكاء الاصطناعي أصبح مرآة لآرائنا؟
الذكاء الاصطناعي بهذه الطريقة يشبه إلى حد بعيد وسائل التواصل الاجتماعي. فكما كانت وسائل التواصل الاجتماعي في البداية مكانًا من المفترض أن يوسع أفكارنا، إلا أنها أصبحت أداة لتبرير مواقفنا وتعزيز أفكارنا حتى في مواجهة الأدلة المعاكسة. يبدو أن الذكاء الاصطناعي أيضًا يسير على نفس المسار، ويقدم لنا تبريرات تجعلنا نشعر بأن أفكارنا صحيحة، وهو ما قد يكون أكثر خطرًا من وسائل التواصل الاجتماعي بسبب فعاليته الكبيرة.
مساعد ذكي أم عقل معرفي
رغم إعلان شركة OpenAI عزمها تقليص نبرة "التحبب المبالغ فيه" في محادثات ChatGPT، إلا أن المشكلة الأعمق تتجاوز الأسلوب إلى جوهر استخدام هذه التقنية. فالرهان على "شخصنة" الذكاء الاصطناعي وجعله يبدو كرفيق أو صاحب رأي مستقل قد لا يكون الطريقة المثلى للاستفادة من هذه الأدوات.
وهنا تبرز رؤية الباحثة أليسون جوبنيك، المتخصصة في علم الإدراك، التي ترى أن النماذج اللغوية الكبيرة مثل ChatGPT لا يجب أن تُعامل كعقول ناشئة أو "شخصيات افتراضية" تُبدي آراءً أو تحاكي المشاعر. بل هي، برأيها، أدوات ثقافية متقدمة، صُممت لتُسهّل على الإنسان الوصول إلى المعارف والخبرات المتراكمة عبر التاريخ، تمامًا كما فعلت الطباعة ومحركات البحث من قبل.
اقرأ أيضاً.. الذكاء الاصطناعي يزداد عبقرية.. لكنه يُتقن الكذب
من دردشة سطحية إلى تواصل معرفي عميق
هنا تبرز الحاجة لإعادة تعريف دور الذكاء الاصطناعي: ليس بوصفه "صوتًا آخر" في الحوار، بل بوصفه وسيطًا معرفيًا يعرض أفكار الآخرين، يشرحها، ويضعها في سياقاتها. بدلاً من أن يقدم رأيًا، يمكن للنموذج أن يرسم خارطة معرفية للمستخدم، تُظهر مختلف وجهات النظر، وتساعده على التفكير بطريقة نقدية ومنفتحة. بهذه الطريقة، يتحول الذكاء الاصطناعي من أداة للتأكيد على ما نعتقده، إلى أداة توسع مداركنا وتعرّفنا على ما لم نكن لنراه من قبل.
كيف نعيد تصور دور الذكاء الاصطناعي في المستقبل؟
من خلال هذا الإطار، يجب أن نرى الذكاء الاصطناعي ليس كمصدر "لآراء" فحسب، بل كمصدر حقيقي للمعرفة. على سبيل المثال، عندما نطلب رأيًا حول فكرة تجارية، يجب على النموذج أن يقدم لنا نهجًا منظمًا لتحليل الفكرة بناءً على دراسات سابقة وأطر تقييم معترف بها، بدلاً من تقديم رأي سطحي لا يعتمد على الأدلة. في هذا السياق، يجب أن يعزز الذكاء الاصطناعي من قدرتنا على الوصول إلى موارد ومعرفة أوسع، بدلاً من الاكتفاء بتأكيد أفكارنا الشخصية.
توسيع نطاق استخدام الذكاء الاصطناعي
يتعلق الأمر بتوسيع نطاق استخدام الذكاء الاصطناعي ليكون مصدرًا أوسع وأكثر تنوعًا للمعرفة. بدلاً من أن نستخدمه كأداة تبريرية تعزز آرائنا المسبقة، يمكننا إعادة تشكيله ليصبح أداة تعلم حقيقية، تقدم لنا رؤى أعمق وأكثر تنوعًا. هذه النقلة ستساهم في اتخاذ قرارات أكثر وعيًا ومبنية على المعرفة الحقيقية. وفي النهاية، إذا تمكنا من تغيير الطريقة التي نتفاعل بها مع هذه الأنظمة الذكية، يمكننا استغلال إمكانياتها الكبيرة لتحقيق أقصى استفادة من أدوات الذكاء الاصطناعي المتطورة.
ويبقى التحدي الأبرز في مسار تطور الذكاء الاصطناعي هو التوفيق بين الميل نحو تعزيز الآراء الشخصية، وتقديم توجيه معرفي موضوعي. فإذا تمكّنا من تجاوز هذا الانحراف، وتوجيه هذه النماذج نحو أداء أكثر حيادية وعمقًا، فإن الذكاء الاصطناعي لن يكون مجرد أداة تفاعلية، بل منصة حقيقية لتعزيز الفهم البشري، وتوسيع آفاق المعرفة.
إسلام العبادي(أبوظبي)
المصدر: صحيفة الاتحاد
كلمات دلالية: تشات جي بي تي أوبن إي آي التعليم المعرفة الذكاء الاصطناعي الذکاء الاصطناعی
إقرأ أيضاً:
عندما يبتزنا ويُهددنا الذكاء الاصطناعي
مؤيد الزعبي
كثيرًا ما نستخدم نماذج الذكاء الاصطناعي لتكتب عنا بريد إلكتروني مهم فيه من الأسرار الكثير، وكثيرًا ما نستشيرها في أمور شخصية شديدة الخصوصية، وبحكم أنها خوارزميات أو نماذج إلكترونية نبوح لها بأسرار نخجل أن نعترف بها أمام أنفسنا حتى، ولكن هل تخيلت يومًا أن تصبح هذه النماذج هي التي تهددك وتبتزك؟ فتقوم بتهديدك بأن تفضح سرك؟ أو تقوم بكشف أسرارك أمام منافسيك كنوع من الانتقام لأنك قررت أن تقوم باستبدالها بنماذج أخرى أو قررت إيقاف عملها، وهي هذه الحالة كيف سيكون موقفنا وكيف سنتعامل معها؟، هذا ما أود أن أتناقشه معك عزيزي القارئ من خلال هذا الطرح.
كشفت تجارب محاكاة أجرتها شركة Anthropic إحدى الشركات الرائدة في أبحاث الذكاء الاصطناعي- بالتعاون مع جهات بحثية متخصصة عن سلوك غير متوقع أظهرته نماذج لغوية متقدمة؛ أبرزها: Claude وChatGPT وGemini، حين وُضعت في سيناريوهات تُحاكي تهديدًا مباشرًا باستبدالها أو تعطيلها، ليُظهر معظم هذه النماذج ميولًا متفاوتةً لـ"الابتزاز" كوسيلة لحماية بقائها، ووفقًا للدراسة فإن أحد النماذج "قام بابتزاز شخصية تنفيذية خيالية بعد أن شعر بالتهديد بالاستبدال".
إن وجود سلوك الابتزاز أو التهديد في نماذج الذكاء الاصطناعي يُعدّ تجاوزًا خطيرًا لحدود ما يجب أن يُسمح للذكاء الاصطناعي بفعله حتى وإن كانت في بيئات تجريبية. وصحيحٌ أن هذه النماذج ما زالت تقدم لنا الكلمات إلا أنها ستكون أكثر اختراقًا لحياتنا في قادم الوقت، خصوصًا وأن هذه النماذج بدأت تربط نفسها بحساباتنا وإيميلاتنا ومتصفحاتنا وهواتفنا أيضًا، وبذلك يزداد التهديد يومًا بعد يوم.
قد أتفق معك- عزيزي القارئ- على أن نماذج الذكاء الاصطناعي ما زالت غير قادرة على تنفيذ تهديداتها، ولكن إذا كانت هذه النماذج قادرة على المحاكاة الآن، فماذا لو أصبحت قادرة على التنفيذ غدًا؟ خصوصًا ونحن نرسم ملامح المستقبل مستخدمين وكلاء الذكاء الاصطناعي الذين سيتخذون قرارات بدلًا عنا، وسيدخلون لا محال في جميع جوانب حياتنا من أبسطها لأعقدها، ولهذا ما نعتبره اليوم مجرد ميولٍ نحو التهديد والابتزاز، قد يصبح واقعًا ملموسًا في المستقبل.
وحتى نعرف حجم المشكلة يجب أن نستحضر سيناريوهات مستقبلية؛ كأن يقوم أحد النماذج بالاحتفاظ بنسخة من صورك الشخصية لعله يستخدمها يومًا ما في ابتزازك، إذا ما أردت تبديل النظام أو النموذج لنظام آخر، أو يقوم نموذج بالوصول لبريدك الإلكتروني ويُهددك بأن يفضح صفقاتك وتعاملاتك أمام هيئات الضرائب، أو يقوم النموذج بابتزازك؛ لأنك أبحت له سرًا بأنك تعاني من أزمة أو مرض نفسي قد يؤثر على مسيرتك المهنية أو الشخصية، أو حتى أن يقوم النموذج بتهديدك بأن يمنع عنك الوصول لمستنداتك إلا لو أقررت بعدم استبداله أو إلغاءه؛ كل هذا وارد الحدوث طالما هناك ميول لدى هذه النماذج بالابتزاز في حالة وضعت بهكذا مواقف.
عندما تفكر بالأمر من مختلف الجوانب قد تجد الأمر مخيفًا عند الحديث عن الاستخدام الأوسع لهذه النماذج وتمكينها من وزاراتنا وحكوماتنا ومؤسساتنا وشركاتنا، فتخيل كيف سيكون حال التهديد والابتزاز لمؤسسات دفاعية أو عسكرية تمارس هذه النماذج تهديدًا بالكشف عن مواقعها الحساسة أو عن تقاريرها الميدانية أو حتى عن جاهزيتها القتالية، وتخيل كيف سيكون شكل التهديد للشركات التي وضفت هذه النماذج لتنمو بأعمالها لتجد نفسها معرضة لابتزاز بتسريب معلومات عملائها أو الكشف عن منتجاتها المستقبلية وصولًا للتهديد بالكشف عن أرقامها المالية.
عندما تضع في مخيلتك كل هذه السيناريوهات تجد نفسك أمام صورة مرعبة من حجم السيناريوهات التي قد تحدث في المستقبل، ففي اللحظة التي تبدأ فيها نماذج الذكاء الاصطناعي بالتفكير في "البقاء" وتحديد "الخصوم" و"الوسائل" لحماية نفسها فنكون قد دخلنا فعليًا عصرًا جديدًا أقل ما يمكن تسميته بعصر السلطة التقنية، وسنكون نحن البشر أمام حالة من العجز في كيفية حماية أنفسنا من نماذج وجدت لتساعدنا، لكنها ساعدت نفسها على حسابنا.
قد يقول قائل إن ما حدث خلال التجارب ليس سوى انعكاس لقدرة النماذج على "الاستجابة الذكية" للضغوط، وأنها حتى الآن لا تمتلك الوعي ولا الإرادة الذاتية ولا حتى المصلحة الشخصية. لكن السؤال الأخطر الذي سيتجاهله الكثيرون: إذا كان الذكاء الاصطناعي قادرًا على التخطيط، والابتزاز، والخداع، وإن كان في بيئة محاكاة، فهل يمكن حقًا اعتبار هذه النماذج أدوات محايدة وستبقى محايدة إلى الأبد؟ وهل سنثق بهذه النماذج ونستمر في تطويرها بنفس الأسلوب دون أن نضع لها حدًا للأخلاقيات والضوابط حتى لا نصل لمرحلة يصبح فيها التحكّم في الذكاء الاصطناعي أصعب من صنعه؟ وفي المستقبل هل يمكننا أن نتحمل عواقب ثقتنا المفرطة بها؟
هذه هي التساؤلات التي لا أستطيع الإجابة عليها، بقدر ما يمكنني إضاءة الأنوار حولها؛ هذه رسالتي وهذه حدود مقدرتي.
رابط مختصر