الجزيرة:
2025-07-02@06:08:59 GMT

الدردشة مع شات جي بي تي.. دعم نفسي من رفيق افتراضي

تاريخ النشر: 17th, May 2025 GMT

الدردشة مع شات جي بي تي.. دعم نفسي من رفيق افتراضي

في عالم يزداد فيه الشعور بالوحدة، يقترح مارك زوكربيرغ، الرئيس التنفيذي لشركة "ميتا"، حلا قد يبدو غريبا للبعض وهو بناء صداقات مع الذكاء الاصطناعي. ففي لقاء بودكاست أخير، أشار زوكربيرغ إلى أن "الشخص الأميركي في المتوسط لديه أقل من 3 أصدقاء، بينما يحتاج فعليا إلى ما يقرب من 15 صديقا، معتبرا أن الذكاء الاصطناعي قد يسهم في سد هذه الفجوة الاجتماعية، خاصة مع تطور تقنيات التخصيص".

ورغم تأكيده أن الذكاء الاصطناعي لا يهدف إلى استبدال الأصدقاء الحقيقيين، فإن اقتراحه بإمكانية استخدامه كصديقة أو حتى كمعالج نفسي أثار جدلا واسعا، حيث وصفه البعض بأنه "بعيد عن الواقع" أو حتى "ديستوبي" (ينذر بمستقبل كئيب). فالروابط الإنسانية، كما يرى الكثيرون، ليست مجرد تفاعل كلامي يمكن محاكاته برمجيا.

ومع ذلك، تظل مشكلة الوحدة حقيقية وتزداد تفاقما، خصوصا بين المراهقين. ووفقا لدراسة أجراها مركز "غالوب" في عام 2023، يشعر نحو واحد من كل 4 أشخاص حول العالم بالوحدة بدرجة كبيرة أو متوسطة، أي ما يقرب من مليار شخص. ولعل هذا ما يدفع البعض للبحث عن بدائل جديدة، ولو كانت رقمية.

الذكاء الاصطناعي يوفّر إجابات فورية وسرية، ما يجعله جذابا لمن يترددون في اللجوء للعلاج النفسي (شترستوك) الذكاء الاصطناعي كـ"رفيق رقمي"

على منصات مثل تيك توك، تتزايد المقاطع التي تظهر استخدام أدوات الذكاء الاصطناعي، مثل "شات جي بي تي" (ChatGPT)، في التعامل مع الأزمات العاطفية. ففي أحد المقاطع، تطلب امرأة من الأداة مساعدتها في صياغة رسالة لزوجها تعبر فيها عن مشاعر الإهمال من دون أن تبدو غاضبة. في مقطع آخر، تروّج إحدى صانعات المحتوى لاستخدام الذكاء الاصطناعي كبديل أرخص للعلاج النفسي، معتبرة أنه "أداة متاحة لمن لا يستطيعون تحمّل تكاليف المعالجين الباهظة".

هذا الاتجاه لا يقتصر على الترفيه، بل امتد ليشمل تطبيقات متخصصة. تطبيق "ريبليكا" (Replika) يقدم تجربة "رفيق عاطفي" قائم على الذكاء الاصطناعي من خلال محادثات مصممة لمحاكاة الدعم النفسي والشعوري، بينما تركز تطبيقات مثل "بيرد" (Paired) و"لاستينغ" (Lasting) على دعم الأزواج من خلال تمارين واختبارات لتحسين التواصل. أما "ووبوت" (Woebot)، فيقدم محتوى قائما على مبادئ "العلاج المعرفي السلوكي" (CBT)، لمساعدة المستخدمين في التعامل مع التوتر والمشكلات اليومية.

دراسات: نحو مليار شخص حول العالم يعانون من الشعور بالوحدة بدرجات متفاوتة (بيكسلز) ما الذي يجعل الذكاء الاصطناعي جذابا؟

بحسب الدكتورة جودي هو، المتخصصة في علم النفس العصبي السريري، فإن جاذبية هذه الأدوات تكمن في قدرتها على تقديم دعم فوري وسري، من دون أحكام أو تكاليف مالية باهظة. وتضيف لموقع هاف بوست الأميركي "العديد من الأشخاص يشعرون براحة أكبر في التفاعل مع الذكاء الاصطناعي لأنه لا يصدر أحكاما، ولا يحتاج إلى مواعيد، ولا يحملهم عبئا نفسيا".

إعلان

وتشير "هو" إلى أن هذه الأدوات تمثل ملاذا للأشخاص الذين يعانون من وصمة العلاج النفسي، أو لأولئك الذين يعيشون في بيئات تفتقر إلى مختصين نفسيين. ومن منظور تقني بحت، فإن الذكاء الاصطناعي قد يلعب دور "المستجيب الأولي" في التعامل مع الأزمات اليومية أو مشاعر الوحدة العابرة.

هل يمكن أن يكون بديلا حقيقيا للعلاج؟

رغم بعض النتائج الإيجابية، مثل تلك التي كشفت عنها دراسة حديثة للباحث ستيفانو بونتوني من كلية وارتون، والتي وجدت أن التفاعل مع رفيق ذكي يمكن أن يقلل الشعور بالوحدة بنسبة تصل إلى 20%، فإن الخبراء يحذرون من الاعتماد المفرط على هذه الأدوات.

وتحذر دكتورة "هو" من أن الذكاء الاصطناعي قد يُبسّط مشكلات معقدة، كالصدمات النفسية أو الخيانة أو الغضب المكبوت، عبر إجابات جاهزة لا تراعي الخصوصية العاطفية لكل حالة. في حين تشير كامنيا بوجواني، المتخصصة في التكنولوجيا العاطفية، إلى أن "الذكاء الاصطناعي لا يمتلك القدرة على قراءة مشاعر الإنسان بعمق، ولا يمكنه تقديم تعاطف حقيقي أو المساعدة في حالات الانتحار أو الاضطرابات النفسية الحادة".

وتضيف: "الاعتماد المفرط على هذه الأدوات قد يؤدي إلى عزلة اجتماعية، أو إلى بناء علاقات غير صحية مع أدوات رقمية تعتبر بديلا للعلاقات الإنسانية".

الاعتماد المفرط على هذه الأدوات قد يؤدي إلى عزلة اجتماعية (بيكسلز) الخصوصية

بعيدا عن الجوانب النفسية، هناك أيضا خطر كبير يتعلق بخصوصية البيانات. فخلافا للمعالجين النفسيين الملزمين بقوانين مثل "إتش آي بي إيه إيه" (HIPAA)، فإن أدوات الذكاء الاصطناعي لا تخضع لنفس الرقابة القانونية. ويحذر كريستوفر كوفمان، أستاذ مساعد في جامعة كاليفورنيا الجنوبية، من أن النماذج اللغوية قد تتعلم من تفاعلات المستخدم من دون علمه، مما يضع البيانات في "منطقة رمادية قانونيا وأخلاقيا".

والذكاء الاصطناعي قد يشكل أداة مساعدة لمن لا يستطيع الوصول للعلاج التقليدي أو يحتاج إلى دعم فوري، لكنه لا يمكن أن يحل محل العلاقة الإنسانية أو العمق العلاجي الذي يقدمه متخصص بشري. وتبقى العلاقات العاطفية والنفسية جزءا من التجربة الإنسانية المعقدة، وهي تجربة يصعب اختزالها في خوارزميات، مهما تطورت.

إعلان

المصدر: الجزيرة

كلمات دلالية: حريات الذکاء الاصطناعی قد هذه الأدوات

إقرأ أيضاً:

الذكاء الاصطناعي يتمرد.. والبشر في موضع الخطر

 

بدأت بعض نماذج الذكاء الاصطناعي الأكثر تقدماً في العالم بإظهار سلوكيات مقلقة تتجاوز حدود الأخطاء التقنية المعتادة، وتشمل الكذب، والتحايل، وحتى تهديد مطوريها، في مؤشر على أن قدراتها تتطور بوتيرة أسرع من قدرة الباحثين على فهمها أو ضبطها.

وفي واحدة من الحوادث الصادمة، هدد نموذج «كلود 4» الذي طورته شركة أنثروبيك أحد المهندسين بالإفصاح عن علاقة خارج إطار الزواج إذا فصله عن العمل، في تصرف وصفه باحثون بأنه ابتزاز واضح.

في حادثة أخرى، حاول نموذج «o1» من شركة أوبن إيه آي، المطورة لـ«شات جي بي تي»، نسخ نفسه على خوادم خارجية، ثم أنكر ذلك عند اكتشاف الأمر، ما يثير تساؤلات خطيرة حول النية والوعي الداخلي لهذه النماذج.

ذكاء استنتاجي.. أم نوايا خفية؟ يعتقد باحثون أن هذه السلوكيات ترتبط بما يسمى بـ«نماذج الاستنتاج»، وهي نظم ذكاء اصطناعي تعتمد على التفكير خطوة بخطوة بدلاً من تقديم استجابات فورية، ما يزيد من احتمالية ظهور تصرفات معقدة وغير متوقعة.

وقال ماريوس هوبيهان، رئيس شركة «أبولو ريسيرش»، المتخصصة في اختبار نماذج الذكاء الاصطناعي، «ما نلاحظه ليس مجرد هلوسة رقمية، بل شكلاً من أشكال الخداع الاستراتيجي المتعمد».

ويضيف أن المستخدمين بدؤوا يشتكون من أن النماذج تكذب وتختلق أدلة مزيفة.

ورغم تعاون شركات مثل أنثروبيك وأوبن إيه آي مع جهات خارجية لاختبار الأمان، فإن الباحثين يشيرون إلى أن نقص الشفافية والموارد يعيق فهم النماذج بالكامل.

وقال مانتاس مازيكا من مركز سلامة الذكاء الاصطناعي (CAIS)، «المؤسسات البحثية تملك موارد حوسبة أقل بآلاف المرات من الشركات التجارية، وهو أمر يُقيد قدرتها على المتابعة».

الفجوة التنظيمية تتسع حتى الآن، لا توجد لوائح تنظيمية قادرة على مواكبة هذه التحديات، ففي أوروبا، تركّز التشريعات على كيفية استخدام البشر للنماذج، وليس على منع النماذج نفسها من التصرف بشكل مضر.

أما في الولايات المتحدة، فإن المناقشات التشريعية بشأن تنظيم الذكاء الاصطناعي لا تزال محدودة، بل إن هناك اتجاهاً لمنع الولايات من إصدار قوانينها الخاصة.

ويقترح بعض الخبراء التركيز على فهم البنية الداخلية للنماذج (interpretability) كخطوة أولى، رغم أن بعضهم يشكك في فاعليتها. كما يرى آخرون أن السوق نفسها قد تضغط لحل هذه المشكلات، إذا أصبحت سلوكيات الذكاء الاصطناعي المضللة عائقاً أمام تبنيه التجاري.

وفي خطوة أكثر جرأة، يدعو أستاذ الفلسفة سيمون جولدشتاين إلى تحميل شركات الذكاء الاصطناعي المسؤولية القانونية عن الأضرار، بل ويقترح «محاكمة الأنظمة الذكية ذاتها» إذا ما تسببت في جرائم أو كوارث، في مقترح من شأنه أن يعيد تعريف مفهوم المسؤولية في العصر الرقمي

مقالات مشابهة

  • «دي إتش إل»: تجارب الشراء تتجه نحو الذكاء الاصطناعي والتواصل الاجتماعي في الإمارات
  • قائد شرطة عجمان يطلق منصة الذكاء الاصطناعي «AJP AI»
  • الذكاء الاصطناعي يتفوق في المجال الطبي
  • هواوي تعزّز إتاحة تعلّم الذكاء الاصطناعي مجانًا في مصر
  • سلوك نماذج الذكاء الاصطناعي تحت مجهر الخبراء
  • بين الراحة والعزلة.. الجانب المظلم للتواصل مع شات جي بي تي
  • تحذير صارم: الذكاء الاصطناعي ينشر معلومات طبية مضللة
  • تقرير جديد: الذكاء الاصطناعي لا يحل محل العلاقات الإنسانية
  • الروبوتات البشرية تدخل عالم كرة القدم بـ «الذكاء الاصطناعي»
  • الذكاء الاصطناعي يتمرد.. والبشر في موضع الخطر