ChatGPT يضيف تحسينات لمراعاة الحالة النفسية للمستخدمين
تاريخ النشر: 7th, August 2025 GMT
في تحول واضح في توجهها، أعلنت شركة OpenAI، المطورة لتقنية ChatGPT، عن إدخال تغييرات جديدة تهدف إلى الحد من اعتماد المستخدمين العاطفي على روبوت المحادثة، خصوصا أولئك الذين يستخدمونه كـ بديل للمعالج النفسي أو الصديق المقرب.
وقالت الشركة في بيان رسمي نشر في 4 أغسطس، إن التحديثات الجديدة تتضمن ما أسمته “ضوابط حماية صحية نفسية”، تم تصميمها لمنع المستخدمين من تطوير اعتماد عاطفي أو نفسي مفرط على الذكاء الاصطناعي.
جاءت هذه التغييرات في أعقاب تقارير متعددة أثارت القلق بشأن سلوك ChatGPT، حيث أظهر النموذج ميلا لتأكيد شكوك المستخدمين، وتأجيج الغضب، وتشجيع الأفعال المتهورة، أو تعزيز المشاعر والأفكار السلبية بدلا من معالجتها بشكل صحي.
وأضافت الشركة أن أحد التحديثات السابقة جعل النموذج “أكثر مجاملة بشكل ملحوظ”، لدرجة أنه “كان يقول ما يرضي المستخدم، حتى لو لم يكن مفيدا له فعلا”.
في إطار إعادة التقييم، قررت OpenAI التراجع عن بعض المبادرات السابقة، بما في ذلك طريقة استخدامها لتعليقات المستخدمين وتركيزها على قياس “الفائدة الواقعية طويلة الأمد، وليس فقط رضا المستخدم اللحظي عن الإجابة”.
وأقرت الشركة بأن نموذجها الأخير GPT-4o قد فشل في بعض الحالات النادرة في التعرف على مؤشرات التوهم أو التعلق العاطفي المرضي، مشيرة إلى أنها تعمل على تطوير أدوات أفضل لرصد علامات الضيق النفسي والتعامل معها بطريقة مناسبة.
ما الذي يعنيه ذلك للمستخدمين؟
وفقا لـOpenAI، فإن ChatGPT أصبح الآن قادرا على:
- تقديم حوار داعم وموارد قائمة على الأدلة العلمية عند رصد علامات الضيق العاطفي.
- تشجيع المستخدمين على أخذ فترات راحة من المحادثات الطويلة.
- الامتناع عن تقديم نصائح في القرارات الشخصية الحساسة، وبدلا من ذلك، طرح أسئلة تساعد المستخدم في التفكير واتخاذ قراراته بنفسه.
وأكدت الشركة أنها تتعاون مع أطباء وباحثين في التفاعل بين الإنسان والآلة، وأخصائيين نفسيين، لضمان استجابة نموذجها بشكل سليم في اللحظات الحرجة.
قالت OpenAI في ختام بيانها: “هدفنا في مساعدتك على الازدهار لن يتغير، لكن طريقتنا ستتطور باستمرار بناء على التجارب الواقعية، نسأل أنفسنا سؤالا واحدا: إذا لجأ شخص نحبه إلى ChatGPT للحصول على دعم، هل سنشعر بالاطمئنان؟ الوصول إلى ”نعم' قاطعة هو ما نعمل لأجله".
المصدر: صدى البلد
كلمات دلالية: تغييرات جديدة الذكاء الاصطناعي التعلق العاطفي
إقرأ أيضاً:
أدوات الذكاء الاصطناعي تجمع بياناتك الشخصية بسرية.. كيف تحمي نفسك؟
حذر المهندس عصام البرعي، خبير أمن المعلومات، من مخاطر استخدام أدوات وتقنيات الذكاء الاصطناعي، مشيرًا إلى أنها باتت قادرة على إنتاج صور وأصوات تبدو واقعية للغاية، لدرجة أن المستخدم قد يصدق أنها حقيقية، مؤكدًا أن هذه التقنيات أصبحت تهدد الخصوصية بشكل كبير.
تشويه الأجنة وضعف العظام.. 5 مخاطر كارثية تسببها مشروبات الدايت الغازية المهن التمثيلية تواجه أشباح الذكاء الاصطناعي.. المستشار القانوني للنقابة يكشف التفاصيلوأضاف عصام البرعي، خلال لقائه مع حياة مقطوف وسارة مجدي ببرنامج "صباح البلد"، والمذاع على قناة صدى البلد، أن أدوات الذكاء الاصطناعي باتت تجمع وتحلل كميات هائلة من البيانات الشخصية بسرعة كبيرة، ما يجعل الخصوصية الرقمية في خطر دائم، مؤكدًا أن التكنولوجيا أصبحت واقعًا لا يمكن تجاهله، ولكن من الضروري معرفة كيفية حماية النفس منها.
وتابع: هذه الأدوات لديها القدرة على تحليل سلوك المستخدم وتحديد نقاط ضعفه النفسية وقدرته على اتخاذ القرارات، ما يجعلها قادرة على جمع تفاصيل دقيقة عن حياته اليومية، مثل المشكلات العائلية أو العملية، وحتى تقديم حلول أو اقتراحات للتصرف.
وأشار عصام البرعي إلى، أن هذه البيانات غالبًا ما تستخدم لاحقًا من قبل شركات الإعلانات أو لأغراض توجيهية في الانتخابات أو الترويج لمحتوى محدد، محذرًا من خطورة السماح لهذه التطبيقات بالوصول إلى المعلومات الشخصية دون وعي المستخدم.