الذكاء الاصطناعي.. سلاح ذو حدين أمام تحديات الصحة النفسية
تاريخ النشر: 4th, April 2025 GMT
يبدو الأمر مبهراً.. تطبيق في جيبك يلعب دور المعالج النفسي، متاح لك في كل وقت، دون مواعيد طويلة أو تكاليف باهظة. هذا هو وعد "العلاج النفسي بالذكاء الاصطناعي"، الذي يشهد تزايدًا في الإقبال، خاصة بين بعض الفئات من الباحثين عن الدعم النفسي السريع، وفقًا لموقع The Conversation التقني.
لكن الباحث نايجل ماليغان من جامعة دبلن سيتي يحذّر من أن هذه الوسائل، رغم سهولتها، قد تُفاقم عزلة الأشخاص الضعفاء بدلاً من تخفيف معاناتهم.
اقرأ أيضاً.. الذكاء الاصطناعي يتفوق على البشر في تحليل بيانات مراقبة القلب بدقة مذهلة
دعم محدود... وخطر محتمل
يستخدم العلاج النفسي التقليدي الحوار العميق لفهم المشاعر والصراعات الداخلية. أما الذكاء الاصطناعي – مثل برامج "تشات بوت" – فيحاكي ذلك الحوار ظاهريًا دون أن يمتلك القدرة الحقيقية على التعاطف أو الفهم الإنساني.
اقرأ أيضاً.. الأول من نوعه عالمياً.. مسح متخصص يكشف تأثير الذكاء الاصطناعي على الرعاية الصحية
ووفقًا للباحثين، فإن هذه الأنظمة قد تكون مفيدة في بعض الحالات الخفيفة كأداة مساعدة للمعالج البشري، لكنها غير مؤهلة للتعامل مع أزمات نفسية خطيرة التي تتطلب تدخلًا إنسانيًا مدروسًا.
فجوات إنسانية وثقافية
الذكاء الاصطناعي يفتقر إلى الحساسية الثقافية، وقد يُسيء تفسير السياق أو النوايا بسبب اعتماده على خوارزميات جامدة. كما أنه لا يستطيع تعديل نهجه بناءً على التفاعل العاطفي أو الخلفية الشخصية للمستخدم، ما قد يؤدي إلى ردود فعل غير ملائمة أو حتى مؤذية.
غياب المساءلة والأمان
على عكس المعالجين المرخصين، لا تخضع تطبيقات الذكاء الاصطناعي لضوابط مهنية أو مساءلة قانونية، ما يثير القلق بشأن جودة النصائح المقدمة، وسرية البيانات الشخصية الحساسة التي يُمكن أن تُستغل أو تُسرّب.
العزلة بدل الراحة النفسية
يشير الباحث إلى خطر الاعتماد المفرط على "المعالج الذكي"، إذ قد يتجنب بعض الأشخاص التوجه إلى معالج بشري، مما يؤخر الحصول على علاج فعّال. في نهاية المطاف، قد يؤدي ذلك إلى تفاقم مشاعر الوحدة والعزلة، وهو عكس ما تهدف إليه الصحة النفسية.
على الرغم من أن الذكاء الاصطناعي قد يقدم أدوات مساعدة، إلا أنه لا يمكن أن يكون بديلاً عن العلاقة الإنسانية العميقة التي يبنيها العلاج النفسي الحقيقي، القائم على الثقة، التفاعل، والمساءلة.
إسلام العبادي(أبوظبي)
المصدر: صحيفة الاتحاد
كلمات دلالية: تشات جي بي تي الصحة النفسية الذكاء الاصطناعي الأمراض النفسية الذکاء الاصطناعی
إقرأ أيضاً:
أبرز اتجاهات الذكاء الاصطناعي التوليدي في 2025
يدخل الذكاء الاصطناعي التوليدي مرحلةً أكثر نضجًا في عام 2025، حيث يتم تحسين النماذج لزيادة دقتها وكفاءتها، وتقوم الشركات بدمجها في سير العمل اليومي.
يتحول التركيز من ما يمكن أن تفعله هذه الأنظمة إلى كيفية تطبيقها بشكل موثوق وعلى نطاق واسع. ما يبرز هو صورة أوضح لما يتطلبه بناء ذكاء اصطناعي توليدي ليس قويًا فحسب، بل موثوقًا أيضًا.
جيل جديد من نماذج اللغات الكبيرة (LLMs)
تتخلى نماذج اللغات الكبيرة عن سمعتها كعملاق متعطش للموارد. فقد انخفضت تكلفة توليد استجابة من نموذج بمقدار 1000 ضعف خلال العامين الماضيين، مما جعلها تضاهي تكلفة البحث البسيط على الويب. هذا التحول يجعل الذكاء الاصطناعي الفوري أكثر قابلية للتطبيق في مهام الأعمال الروتينية.
يُعدّ التوسع مع التحكم أيضًا من أولويات هذا العام. لا تزال النماذج الرائدة (Claude Sonnet 4، وGemini Flash 2.5، وGrok 4، وDeepSeek V3) كبيرة الحجم، ولكنها مصممة للاستجابة بشكل أسرع، والتفكير بوضوح أكبر، والعمل بكفاءة أكبر. لم يعد الحجم وحده هو العامل المميز. المهم هو قدرة النموذج على التعامل مع المدخلات المعقدة، ودعم التكامل، وتقديم مخرجات موثوقة، حتى مع ازدياد التعقيد.
شهد العام الماضي انتقادات كثيرة لهلوسة الذكاء الاصطناعي. على سبيل المثال، في إحدى القضايا البارزة، واجه محامٍ من نيويورك عقوبات لاستشهاده بقضايا قانونية من اختراع ChatGPT. هذا أمرٌ تكافحه نماذج اللغات الكبيرة هذا العام. حيث تُستخدم معايير جديدة لتتبع هذه الإخفاقات وتحديد كميتها، مما يُمثل تحولًا نحو التعامل مع الهلوسة كمشكلة هندسية قابلة للقياس بدلاً من كونها عيبًا مقبولًا.
مواكبة الابتكار السريع
أحد الاتجاهات الرئيسية لعام 2025 هو سرعة التغيير. تتسارع إصدارات النماذج، وتتغير القدرات شهريًا، ويخضع ما يُعتبر أحدث التقنيات لإعادة تعريف مستمرة. بالنسبة لقادة المؤسسات، يُنشئ هذا فجوة معرفية قد تتحول بسرعة إلى منافسة.
البقاء في الطليعة يعني البقاء على اطلاع دائم. تُتيح فعاليات، مثل معرض الذكاء الاصطناعي والبيانات الضخمة، فرصة نادرة للاطلاع على مستقبل التكنولوجيا من خلال عروض توضيحية واقعية، ومحادثات مباشرة، ورؤى من القائمين على بناء هذه الأنظمة ونشرها على نطاق واسع.
تبني المؤسسات
في عام 2025، سيتجه التحول نحو الاستقلالية. تستخدم العديد من الشركات بالفعل الذكاء الاصطناعي التوليدي في أنظمتها الأساسية، لكن التركيز الآن منصبّ على الذكاء الاصطناعي الوكيل. هذه نماذج مصممة لاتخاذ الإجراءات، وليس فقط توليد المحتوى.
وفقًا لاستطلاع رأي حديث، يتفق 78% من المديرين التنفيذيين على ضرورة بناء منظومات رقمية لوكلاء الذكاء الاصطناعي بقدر ما هي للبشر خلال السنوات الثلاث إلى الخمس المقبلة. يُشكّل هذا التوقع كيفية تصميم المنصات ونشرها. هنا، يُدمج الذكاء الاصطناعي كمشغل؛ فهو قادر على تشغيل سير العمل، والتفاعل مع البرامج، ومعالجة المهام بأقل قدر من التدخل البشري.
كسر حاجز البيانات
تُعدّ البيانات أحد أكبر العوائق أمام التقدم في مجال الذكاء الاصطناعي التوليدي. اعتمد تدريب النماذج الكبيرة تقليديًا على استخراج كميات هائلة من النصوص الواقعية من الإنترنت. ولكن في عام 2025، سيجفّ هذا النبع. أصبح العثور على بيانات عالية الجودة ومتنوعة وقابلة للاستخدام أصعب أخلاقيًا، ومعالجتها أكثر تكلفة.
لهذا السبب، أصبحت البيانات الاصطناعية أصلًا استراتيجيًا. بدلاً من استخراج البيانات من الإنترنت، تُولّد البيانات الاصطناعية بواسطة نماذج لمحاكاة أنماط واقعية. حتى وقت قريب، لم يكن واضحًا ما إذا كانت البيانات الاصطناعية قادرة على دعم التدريب على نطاق واسع، لكن أبحاث مشروع SynthLLM، التابع لشركة مايكروسوفت، أكدت قدرتها على ذلك (إذا استُخدمت بشكل صحيح).
تُظهر نتائجهم إمكانية ضبط مجموعات البيانات الاصطناعية لتحقيق أداء يمكن التنبؤ به. والأهم من ذلك، اكتشفوا أيضًا أن النماذج الأكبر حجمًا تحتاج إلى بيانات أقل للتعلم بفعالية، مما يسمح للفرق بتحسين نهج التدريب الخاص بها بدلًا من إهدار الموارد على حل المشكلة.
جعله يعمل
يشهد الذكاء الاصطناعي التوليدي نموًا متزايدًا في عام 2025. أصبحت نماذج اللغات الكبيرة الأكثر ذكاءً، ووكلاء الذكاء الاصطناعي المنظمون، واستراتيجيات البيانات القابلة للتطوير، الآن عوامل أساسية للتبني العملي. وللقادة الذين يخوضون هذا التحول، يقدم معرض الذكاء الاصطناعي والبيانات الضخمة في أوروبا رؤية واضحة لكيفية تطبيق هذه التقنيات وما يتطلبه نجاحها.
مصطفى أوفى (أبوظبي)