زوجة تستعين ب ChatGpt لحسم قرار الانفصال عن شريكها
تاريخ النشر: 20th, June 2025 GMT
خاص
قررت سيدة بريطانية إنهاء علاقتها العاطفية باستخدام أداة “شات جي بي تي” المدعومة بالذكاء الاصطناعي، بعدما شعرت بأن العلاقة أصبحت مرهقة من طرف واحد.
واستمرت علاقة جينيفر، التي تبلغ من العمر 38 عاماً، أربعة أشهر افتقرت بحسب قولها إلى التوازن والدعم المتبادل، وهو ما سبّب لها إجهاداً نفسياً وشعوراً متزايداً بعدم الاستقرار.
وحاولت جينيفر في البداية استشارة أصدقائها للحصول على رأي يساعدها في اتخاذ القرار، لكنها وجدت نصائحهم غير متوافقة مع قناعاتها.
ولجأت جنيفر إلى “شات جي بي تي”، بحثاً عن تحليل موضوعي وحيادي، حيث كتبت للتطبيق تفاصيل عن علاقتها وسلوك شريكها، وسألته عمّا إذا كانت العلاقة صحية وتستحق الاستمرار.
وأجاب التطبيق بتحليل مباشر، مؤكداً أن العلاقة غير متكافئة، ونصح بإنهائها من أجل حماية توازنها العاطفي، ولم يكتفِ الذكاء الاصطناعي بذلك، بل ساعدها أيضاً على كتابة خطاب الانفصال بصيغة هادئة وواضحة، ما جعل عملية الانفصال أكثر سهولة من الناحية النفسية واللغوية، وفق ما صرّحت به جينيفر لوسائل إعلام بريطانية.
واستمرت السيدة البريطانية في استخدام التطبيق لفترة قصيرة بعد الانفصال، في محاولة لتخفيف التوتر والتعامل مع المشاعر السلبية، ووصفت تجربتها بأنه “كان بمثابة صديق داعم”.
وأكدت جنيفر أن هذه الخطوة ساعدتها على تجاوز العلاقة السابقة بسرعة فاقت ما اعتادت عليه في علاقات سابقة، وهو ما عزز لديها الثقة باستخدام الذكاء الاصطناعي كمصدر للدعم الشخصي.
المصدر: صحيفة صدى
إقرأ أيضاً:
ChatGPT يضيف تحسينات لمراعاة الحالة النفسية للمستخدمين
في تحول واضح في توجهها، أعلنت شركة OpenAI، المطورة لتقنية ChatGPT، عن إدخال تغييرات جديدة تهدف إلى الحد من اعتماد المستخدمين العاطفي على روبوت المحادثة، خصوصا أولئك الذين يستخدمونه كـ بديل للمعالج النفسي أو الصديق المقرب.
وقالت الشركة في بيان رسمي نشر في 4 أغسطس، إن التحديثات الجديدة تتضمن ما أسمته “ضوابط حماية صحية نفسية”، تم تصميمها لمنع المستخدمين من تطوير اعتماد عاطفي أو نفسي مفرط على الذكاء الاصطناعي.
جاءت هذه التغييرات في أعقاب تقارير متعددة أثارت القلق بشأن سلوك ChatGPT، حيث أظهر النموذج ميلا لتأكيد شكوك المستخدمين، وتأجيج الغضب، وتشجيع الأفعال المتهورة، أو تعزيز المشاعر والأفكار السلبية بدلا من معالجتها بشكل صحي.
وأضافت الشركة أن أحد التحديثات السابقة جعل النموذج “أكثر مجاملة بشكل ملحوظ”، لدرجة أنه “كان يقول ما يرضي المستخدم، حتى لو لم يكن مفيدا له فعلا”.
في إطار إعادة التقييم، قررت OpenAI التراجع عن بعض المبادرات السابقة، بما في ذلك طريقة استخدامها لتعليقات المستخدمين وتركيزها على قياس “الفائدة الواقعية طويلة الأمد، وليس فقط رضا المستخدم اللحظي عن الإجابة”.
وأقرت الشركة بأن نموذجها الأخير GPT-4o قد فشل في بعض الحالات النادرة في التعرف على مؤشرات التوهم أو التعلق العاطفي المرضي، مشيرة إلى أنها تعمل على تطوير أدوات أفضل لرصد علامات الضيق النفسي والتعامل معها بطريقة مناسبة.
ما الذي يعنيه ذلك للمستخدمين؟
وفقا لـOpenAI، فإن ChatGPT أصبح الآن قادرا على:
- تقديم حوار داعم وموارد قائمة على الأدلة العلمية عند رصد علامات الضيق العاطفي.
- تشجيع المستخدمين على أخذ فترات راحة من المحادثات الطويلة.
- الامتناع عن تقديم نصائح في القرارات الشخصية الحساسة، وبدلا من ذلك، طرح أسئلة تساعد المستخدم في التفكير واتخاذ قراراته بنفسه.
وأكدت الشركة أنها تتعاون مع أطباء وباحثين في التفاعل بين الإنسان والآلة، وأخصائيين نفسيين، لضمان استجابة نموذجها بشكل سليم في اللحظات الحرجة.
قالت OpenAI في ختام بيانها: “هدفنا في مساعدتك على الازدهار لن يتغير، لكن طريقتنا ستتطور باستمرار بناء على التجارب الواقعية، نسأل أنفسنا سؤالا واحدا: إذا لجأ شخص نحبه إلى ChatGPT للحصول على دعم، هل سنشعر بالاطمئنان؟ الوصول إلى ”نعم' قاطعة هو ما نعمل لأجله".