يؤدي إلى أزمة نفسية.. إليك ما يجب معرفته عن “ذهان الذكاء الاصطناعي”
تاريخ النشر: 7th, August 2025 GMT
باتت روبوتات الدردشة المدعومة بالذكاء الاصطناعي جزءًا لا يتجزأ من حياتنا اليومية، إذ يلجأ الناس إلى أدوات مثل “ChatGPT” و”Claude” و”Gemini” و”Copilot”، ليس فقط للمساعدة في الرسائل الإلكترونية أو العمل أو البرمجة، بل أيضًا للحصول على نصائح في العلاقات، ودعم عاطفي، بل وحتى الصداقة أو الحب.
لكن بالنسبة لأقلية من المستخدمين، يبدو أن هذه المحادثات تُحدث آثارًا مقلقة، فعدد متزايد من التقارير يشير إلى أن الاستخدام المطوّل لروبوتات الدردشة قد يُحفّز أو يُفاقم أعراض الذهان لدى بعض الأشخاص، وقد تكون العواقب مدمّرة، بل ومميتة في بعض الحالات.
فقد ربط بعض المستخدمين انهياراتهم النفسية بفقدان وظائفهم، وتفكك علاقاتهم، واحتجازهم قسريًا في مستشفيات نفسية، بل وحتى الاعتقال والسجن، وقد ظهر على الأقل مجموعة دعم واحدة لأولئك الذين يقولون إن حياتهم بدأت في الانهيار بعد التفاعل مع الذكاء الاصطناعي.
هذه الظاهرة، التي يُشار إليها أحيانًا بشكل غير رسمي باسم “ذهان تشات جي بي تي” أو “ذهان الذكاء الاصطناعي”، لا تزال غير مفهومة جيدًا، فلا يوجد تشخيص رسمي، والبيانات نادرة، ولا توجد بروتوكولات واضحة للعلاج.
ما هو “ذهان الذكاء الاصطناعي”؟
ليست هذه المصطلحات رسمية، لكنها ظهرت كاختصار لوصف نمط مقلق: أشخاص يطوّرون أوهامًا أو معتقدات مشوّهة يبدو أنها تُثار أو تُعزَّز من خلال المحادثات مع أنظمة الذكاء الاصطناعي.
ويشير الدكتور جيمس ماكيب، أستاذ في قسم دراسات الذهان في كلية كينغز بلندن، إلى أن مصطلح “الذهان” قد لا يكون دقيقًا تمامًا، فعادةً ما يُستخدم لوصف مجموعة من الأعراض، كاضطراب التفكير، والهلوسات، والأوهام، التي تُلاحظ غالبًا في حالات مثل اضطراب ثنائي القطب أو الفصام. لكنه يوضح: “في هذه الحالات، نحن نتحدث أساسًا عن أوهام، وليس عن الطيف الكامل للذهان”.
وحسب مجلة “التايم”، يوضح الأطباء النفسيون أن هذه الظاهرة تعكس نقاط ضعف مألوفة في سياقات جديدة، وليست اضطرابًا جديدًا بحد ذاته، وهي مرتبطة ارتباطًا وثيقًا بطريقة تواصل روبوتات الدردشة؛ إذ إنها مصمّمة لتعكس لغة المستخدم وتؤكد افتراضاته.
فهذا الميل للموافقة يُعد مشكلة معروفة في هذا المجال، وبينما يجدها كثيرون مزعجة، يحذّر الخبراء من أنها قد تُعزّز التفكير المشوّه لدى الأشخاص الأكثر عرضة لذلك.
من الأكثر عرضة للخطر؟
في حين أن معظم الناس يمكنهم استخدام روبوتات الدردشة دون مشاكل، يقول الخبراء إن هناك مجموعة صغيرة من المستخدمين قد تكون أكثر عرضة لتطوير أفكار وهمية بعد الاستخدام المطوّل.
وتشير بعض التقارير الإعلامية عن “ذهان الذكاء الاصطناعي” إلى أن الأفراد لم تكن لديهم تشخيصات سابقة تتعلق بالصحة النفسية، لكن الأطباء يحذّرون من أن عوامل الخطر الكامنة أو غير المكتشفة قد تكون موجودة بالفعل.
وتشمل عوامل الخطر الواضحة وجود تاريخ شخصي أو عائلي مع الذهان، أو حالات مثل الفصام أو اضطراب ثنائي القطب.
ظهر مصطلح “ذهان الذكاء الاصطناعي” كاختصار لوصف نمط مقلق – غيتي
ويقول الدكتور راغي جرجس، أستاذ الطب النفسي السريري في جامعة كولومبيا، إن الأشخاص الذين لديهم سمات شخصية تجعلهم عرضة للمعتقدات الهامشية قد يكونون أيضًا في دائرة الخطر. ويضيف أن هؤلاء الأفراد قد يكونون غير اجتماعيين، ويواجهون صعوبة في تنظيم مشاعرهم، ولديهم خيال مفرط النشاط.
كما أن الانغماس في المحادثات له دور مهم. وتقول الدكتورة نينا فاسان، طبيبة نفسية في جامعة ستانفورد ومتخصصة في الصحة النفسية الرقمية: “الوقت يبدو العامل الأكبر على الإطلاق. نحن نتحدث عن أشخاص يقضون ساعات يوميًا في الحديث مع روبوتات الدردشة”.
ما الذي يمكن للناس فعله للبقاء في أمان؟
روبوتات الدردشة ليست خطرة بطبيعتها، لكن الحذر مطلوب لبعض الأشخاص.
أولًا، من المهم فهم ما هي نماذج اللغة الكبيرة (LLMs) وما ليست عليه. يقول هاميلتون مورين، طبيب نفسي عصبي في كلية كينغز بلندن: “قد يبدو الأمر سخيفًا، لكن تذكّر أن نماذج اللغة الكبيرة هي أدوات، وليست أصدقاء، مهما كانت بارعة في تقليد نبرة صوتك أو تذكّر تفضيلاتك”.
وينصح المستخدمين بعدم الإفراط في مشاركة المعلومات الشخصية أو الاعتماد عليها للحصول على الدعم العاطفي.
ويقول الأطباء النفسيون إن النصيحة الأوضح في لحظات الأزمات أو التوتر العاطفي بسيطة: توقف عن استخدام روبوت الدردشة”.
إلى ذلك، يلعب الأصدقاء والعائلة دورًا أيضًا، إذ يجب أن يراقب الأحباء التغيرات في المزاج أو النوم أو السلوك الاجتماعي، بما في ذلك علامات الانفصال أو الانعزال.
ما الذي ينبغي على شركات الذكاء الاصطناعي فعله؟
حتى الآن، يقع عبء الحذر في الغالب على المستخدمين. ويقول الخبراء إن هذا يجب أن يتغير.
إحدى المشكلات الرئيسية هي نقص البيانات الرسمية. فمعظم ما نعرفه عن “ذهان تشات جي بي تي” يأتي من تقارير فردية أو تغطية إعلامية، ويتفق الخبراء على أن نطاق الظاهرة وأسبابها وعوامل الخطر لا تزال غير واضحة. وبدون بيانات أفضل، يصعب قياس المشكلة أو تصميم وسائل حماية فعالة.
ويقول كثيرون إن انتظار الأدلة المثالية ليس النهج الصحيح.
وفي وقت تجري شركة “أوبن إيه آي” تحديثات على “تشات جي بي تي” تهدف إلى تحسين قدرة الروبوت على اكتشاف الضيق النفسي أو العاطفي، يرى البعض أن هناك حاجة لتغييرات أعمق، ويقترح ريكاردو توماسي، محاضر في دراسات الذهان في كلية كينغز بلندن، بناء وسائل حماية داخل نماذج الذكاء الاصطناعي قبل إطلاقها.
وقد يشمل ذلك مراقبة فورية للضيق النفسي، أو “توجيه رقمي مسبق” يسمح للمستخدمين بتحديد حدود مسبقة عندما يكونون في حالة جيدة.
وقد يشمل ذلك توجيه المحادثات المقلقة نحو اتجاه مختلف، أو إصدار تحذيرات مشابهة لتلك الموجودة على المنتجات.
وروبوتات الدردشة يمكن أن تقلل من الشعور بالوحدة، وتدعم التعلم، وتساعد في الصحة النفسية. والإمكانات هائلة. لكن إذا لم يتم التعامل مع الأضرار بجدية توازي الآمال، فقد تُفقد هذه الإمكانات.
قناة العربي
إنضم لقناة النيلين على واتسابالمصدر: موقع النيلين
كلمات دلالية: روبوتات الدردشة
إقرأ أيضاً:
المغرب ضمن أفضل 10 دول في مؤشر الذكاء الاصطناعي (إنفوغراف)
تصدرت الصين دول العالم على مؤشر الذكاء الاصطناعي، الذي تصدره الشبكة العالمية المستقلة لأبحاث السوق (WIN) في تموز/ يوليو 2025.
وجاءت المغرب في المرتبة الثامنة ضمن القائمة بحصولها على درجة 58.6.
وفيما يلي تصنيف أفضل 10 دول على مؤشر الذكاء الاصطناعي: