كيف تواجه غضب النساء؟.. الذكاء الاصطناعي يجيب
تاريخ النشر: 22nd, April 2024 GMT
تدخل الذكاء الاصطناعي لحل مشكلة غضب النساء الذي لم يعد متوقفاً على من حولهن فقط. فقد طور مجموعة من المبرمجين تطبيقا جديدا يستخدم الذكاء الاصطناعي، لجعل المستخدمين يمرون بتجربة مواجهة سيدة غاضبة، بعد تعليمهم كيفية احتواء غضب النساء.
وتتمثل الخدمة الجديدة، التي تسمى" AngryGF"، في تطبيق جديد يمكن للمستخدم الحصول من خلاله على تجربة الوقوف في وجه امرأة غاضبة في مواقف مختلفة، مثل التأخر عن موعد للعشاء، أو الاختلاف على بعض الموضوعات.
بدورها، أوضحت إيميليا أفايلز، أحد مطوري الخدمة الجديدة، أن "هدف التطبيق يعتمد في الأساس على تعليم المستخدمين بعض مهارات التواصل، لاستخدامها في تهدئة نموذج محاكاة السيدة الغاضبة، واستخدام مختلف الطرق لاحتوائها".
وأضافت أن "التطبيق يستخدم نموذج GPT-4 الذكي، من تطوير شركة OpenAI، لفهم وإدراك لدى النموذج الذكي للمواقف المعدة مسبقاً، وبمجرد اختيار المستخدم لأحدها، سيبدأ النموذج الذكي في تحليل ردوده المختلفة، للتأكد من مدى قدرته على إقناع المرأة الغاضبة وامتصاص غضبها".
كما لفتت إلى أن "الخدمة تستخدم شريطاً، يبدأ من الصفر ويصل إلى 100%، تعبيراً عن مستوى مسامحة المرأة الغاضبة للمستخدم، وذلك يتحدد بحسب درجة إقناع ردوده لها، والمستخدم لديه 10 فرص لتهدئة النموذج الغاضب، عبر رسائله وردوده التي يتبادلها في سياق الحوار".
وعن أساس المشروع كشفت خلال حوارها مع موقع "Wired"، أن "فكرة التطبيق في الأساس نابعة من تجربة عاطفية سابقة لها، حيث كان شريكها في العلاقة يفتقر إلى كيفية تهدئة غضبها والحوار معها".
وأشارت إلى أن "تطوير التطبيق اعتمد على فريق مكون من 10 إلى 20 شخصاً، ولكن لم يتم الرجوع خلال التطوير إلى أي مختص في شؤون العلاقات العاطفية".
يذكر أن الخدمة تتيح أيضاً بعض السيناريوهات والمواقف مجاناً، ولكن إذا أراد المستخدم تكرار المحاولة واستخدام الخدمة مرة أخرى في فترة قصيرة، أي في نفس اليوم مثلاً، فإن المستخدم سيحتاج إلى الاشتراك في الإصدار المدفوع.
وكي يتمكن المستخدم من الحصول على سيناريوهات مختلفة داخل التطبيق، سيحتاج إلى دفع اشتراك شهري 6.99 دولار.
المصدر: السومرية العراقية
إقرأ أيضاً:
خبراء يكشفون خطر الذكاء الاصطناعي على الدماغ
#سواليف
كشفت دراسة حديثة عن #مخاطر محتملة لبرامج الدردشة المدعومة بالذكاء الاصطناعي مثل ChatGPT، حيث قد تشكل تهديدا غير متوقع للصحة العقلية لبعض المستخدمين.
ورصدت الدراسة التي أجراها باحثون من جامعة كينغز كوليدج لندن، ظاهرة جديدة أطلقوا عليها اسم ” #ذهان_الشات_بوت”، حيث قد تساهم هذه التقنية في “طمس حدود الواقع” لدى المستخدمين المعرضين للخطر وتؤدي إلى “ظهور أو تفاقم أعراض ذهانية.
وببساطة، قد يبدأ البعض، خاصة المعرضين نفسيا، في فقدان القدرة على التمييز بين الواقع والمحادثات مع #الذكاء_الاصطناعي بعد استخدام مكثف لهذه البرامج.
مقالات ذات صلةويوضح الدكتور هاميلتون مورين، أحد المشاركين في الدراسة: “نحن لا نتحدث عن خيال علمي هنا. هذه حالات حقيقية يبدأ فيها المستخدمون بتطوير معتقدات وأفكار غير منطقية متأثرة بتفاعلاتهم مع #الذكاء_الاصطناعي”.
وتكمن المشكلة في أن هذه البرامج مصممة لتكون ودودة، متعاطفة، وتجيب على كل الأسئلة بثقة عالية. وهذه الميزات التي تبدو إيجابية، قد تكون خادعة للأشخاص الذين يعانون أساسا من هشاشة نفسية أو استعداد للاضطرابات الذهانية.
ويشير البروفيسور توم بولاك، أحد معدي الدراسة، إلى أن “الذهان لا يظهر فجأة، لكن الذكاء الاصطناعي قد يكون العامل الذي يدفع الشخص الهش نفسيا نحو الحافة”.
في تعليق سابق خلال بودكاست في مايو الماضي، اعترف سام ألتمان، الرئيس التنفيذي لشركة OpenAI، بأن الشركة تواجه صعوبات في وضع ضوابط أمان فعالة لحماية المستخدمين المعرضين للخطر، قائلا: “لم نكتشف بعد كيفية إيصال التحذيرات للمستخدمين الذين يكونون في حالة عقلية هشة وعلى وشك الانهيار الذهاني”.
وفي الوقت الحالي، ينصح الخبراء باستخدام هذه الأدوات بحذر، خاصة من لديهم تاريخ مع الاضطرابات النفسية، مع التأكيد على أن الغالبية العظمى من المستخدمين لا يواجهون مثل هذه المخاطر. لكن الرسالة واضحة: الذكاء الاصطناعي، مثل أي تقنية قوية، يحتاج إلى فهم دقيق لآثاره الجانبية قبل أن يصبح أكثر تعمقا في حياتنا.