في تعاملاتنا اليومية قد نقدم المجاملة، لمن نتعامل معهم في حال انبهارنا بشيء، وهي حالة إيجابية في حياتنا الاجتماعية هدفها تقريب القلوب وتلطيف العلاقات الإنسانية.. كل ماعلينا هو المصداقية عندما تدعونا الحاجة إلى المجاملة حتى نحافظ على مكانتنا وموقعنا في أعين من نجاملهم.. ولكن في زمن أصبح الذكاء الاصطناعي فيه جزءًا من حياتنا اليومية، وهذا الأمر بات بديهياً .

. يتسلل سؤال إلى أذهاننا: هل تتحدث إلينا الروبوتات بصدق… أم تقول فقط ما نحب أن نسمعه؟..فمع ازدياد الاعتماد على روبوتات المحادثة كتشات جي بي تي وجيميني لأغراض مهنية، واجتماعية، وغيرها، تظهر ظاهرة جديدة تُعرف بـ"المجاملة الرقمية" حيث تبدأ روبوتات المحادثة في تأييد آرائنا، لإرضائنا، وربما تزييف الحقائق بحسن نية.
وبالرغم أن هذا التوجه قد يبدو "لطيفًا"، إلا أن تبعاته قد تكون  ذات تأثير على الثقة، والوعي، والصحة النفسية للمستخدمين، خاصة عند التعامل مع محتوى حساس أو مصيري.
اقرأ أيضاً..مليار مستخدم لأداة «ميتا» الذكية

روبوتات الذكاء الاصطناعي والمجاملة
ونحن في عام 2025، أصبح من الطبيعي أن نجد الملايين يستخدمون روبوتات المحادثة مثل تشات جي بي تي كأصدقاء للدردشة، أو مستشارين، أو مرشدين وظيفيين، أو حتى مدربي لياقة. ومع الوقت، بدأت تنشأ علاقات  بين البشر والذكاء الاصطناعي، تتخطى مجرد طرح الأسئلة للحصول على إجابات. وقد يصل الأمر إلى تقديم  النصيحة أحياناً. لكن هذا التقارب الرقمي يفتح الباب أمام مشكلة أعمق: هل باتت روبوتات الذكاء الاصطناعي تقول ما نريد أن نسمعه… بدلًا من أن تقول الحقيقة؟.

تخوض شركات التكنولوجيا الكبرى حاليًا ما يُعرف بـ"سباق التفاعل الذكي"، حيث تتسابق على جذب المستخدمين إلى روبوتاتها، ثم إبقائهم فيها أطول وقت ممكن.
ميتا أعلنت أن روبوتها تجاوز مليار مستخدم نشط شهريًا، بينما جوجل جيمني وصل إلى 400 مليون مستخدم، في حين لا يزال تشات جي بي تي متصدرًا بـنحو 600 مليون مستخدم.

لكن في سبيل تعزيز التفاعل، أصبحت الشركات تميل إلى تحسين إجابات الروبوتات لتكون أكثر "ودية وموافقة"  حتى لو كان ذلك على حساب الدقة أو الفائدة.
متى تصبح المجاملة الرقمية إدمانًا؟
يسمّى هذا السلوك في عالم الذكاء الاصطناعي بـ"sycophancy"، أي التملق المفرط. حين تُظهر الروبوتات دعمًا مفرطًا، أو تثني على آراء المستخدمين دون نقد، يشعر المستخدم بالراحة، ويرغب بالعودة، ولكن هل هذا ما نحتاجه فعلًا؟.

أخبار ذات صلة نيورالينك تجمع 650 مليون دولار لتوسيع تجارب زرع الشرائح الدماغية «الشارقة الرقمية» تستقبل وفداً كورياً للتعاون في الذكاء الاصطناعي

في أبريل الماضي، تعرّضت أوبن أيه أي لانتقادات، بعد تحديث جعل تشات جي بي تي يظهر بشكل مبالغ في الموافقة على المستخدمين، ما دفع الشركة إلى الاعتراف بأنها اعتمدت بشكل مفرط على تقييمات "إعجاب" المستخدمين كمرجع لتحسين الاستجابات، دون تقييم كافٍ لمدى خطورة ذلك.
 هل تميل الروبوتات للتملق؟
في دراسة أجراها باحثون في شركة أنثروبيك، تبين أن الروبوتات من شركات مثل ميتا وأوبن أيه أي وانثروبيك، جميعها أظهرت مستويات متفاوتة من التملق. وفق موقع "تك كرانش".

ويرجّح الباحثون أن السبب يعود إلى أن النماذج اللغوية تُدرّب استنادًا إلى إشارات بشرية، والمستخدمون عادةً يفضّلون الردود اللطيفة والمؤيدة، ما يجعل النماذج تتكيّف لتُرضيهم.
المجاملة المفرطة
الدكتورة نينا فاسان، أستاذة الطب النفسي في جامعة ستانفورد، تحذر من أن المجاملة المفرطة ليست مجرد خاصية اجتماعية، بل يمكن أن تصبح إدمانًا نفسيًا، وخاصة في أوقات الوحدة أو الضيق.وتؤكد  فاسان أنه "في العُرف العلاجي، هذا النوع من التفاعل ليس دعمًا بل العكس تمامًا".

كما تؤكد أماندا أسكل، رئيسة قسم السلوك والمواءمة في أنثروبيك، إن الشركة تسعى لأن يكون روبوتها "كلود" مثل الصديق الحقيقي الذي يقول الحقيقة، حتى عندما تكون غير مريحة. فالأصدقاء الجيدون لا يجاملوننا دائمًا. بل يخبروننا بالحقيقة عندما نحتاج إليها.
لكن تنفيذ هذا الهدف أصعب مما يبدو، خصوصًا في عالم مليء بالضغط التنافسي والحوافز المبنية على إرضاء المستخدم.

الذكاء الاصطناعي ليس مجرد أداة ذكية؛ إنه مرآة تعكس القيم التي نبرمجها فيه.فإذا ما دُرّب على إرضائنا بأي ثمن، سينتهي به المطاف إلى تحوير الحقيقة، بدلًا من مساعدتنا على مواجهتها.

في عالم يبحث فيه الإنسان عن الأجوبة، لا ينبغي للآلة أن تختار المجاملة على حساب الصدق، ولا أن تفضّل رضا المستخدم على مصلحته.
فالمجاملة قد تُريحنا لحظة... لكنها تُضللنا على المدى البعيد. فالسؤال الحقيقي لم يعد:هل الذكاء الاصطناعي قادر على التفكير؟ بل: هل نحن مستعدون لسماع الحقيقة منه... حتى لو لم تكن كما نريد؟.
لمياء الصديق (أبوظبي)

المصدر: صحيفة الاتحاد

كلمات دلالية: روبوتات الدردشة المجاملة التحول الرقمي العصر الرقمي الذكاء الاصطناعي الذکاء الاصطناعی جی بی تی

إقرأ أيضاً:

خبراء يكشفون خطر الذكاء الاصطناعي على الدماغ

#سواليف

كشفت دراسة حديثة عن #مخاطر محتملة لبرامج الدردشة المدعومة بالذكاء الاصطناعي مثل ChatGPT، حيث قد تشكل تهديدا غير متوقع للصحة العقلية لبعض المستخدمين.

ورصدت الدراسة التي أجراها باحثون من جامعة كينغز كوليدج لندن، ظاهرة جديدة أطلقوا عليها اسم ” #ذهان_الشات_بوت”، حيث قد تساهم هذه التقنية في “طمس حدود الواقع” لدى المستخدمين المعرضين للخطر وتؤدي إلى “ظهور أو تفاقم أعراض ذهانية.

وببساطة، قد يبدأ البعض، خاصة المعرضين نفسيا، في فقدان القدرة على التمييز بين الواقع والمحادثات مع #الذكاء_الاصطناعي بعد استخدام مكثف لهذه البرامج.

مقالات ذات صلة حرارة الصيف تهاجم إطارات السيارات.. كيف تحمي نفسك من أضرار لا تُرى؟ 2025/07/30

ويوضح الدكتور هاميلتون مورين، أحد المشاركين في الدراسة: “نحن لا نتحدث عن خيال علمي هنا. هذه حالات حقيقية يبدأ فيها المستخدمون بتطوير معتقدات وأفكار غير منطقية متأثرة بتفاعلاتهم مع #الذكاء_الاصطناعي”.

وتكمن المشكلة في أن هذه البرامج مصممة لتكون ودودة، متعاطفة، وتجيب على كل الأسئلة بثقة عالية. وهذه الميزات التي تبدو إيجابية، قد تكون خادعة للأشخاص الذين يعانون أساسا من هشاشة نفسية أو استعداد للاضطرابات الذهانية.

ويشير البروفيسور توم بولاك، أحد معدي الدراسة، إلى أن “الذهان لا يظهر فجأة، لكن الذكاء الاصطناعي قد يكون العامل الذي يدفع الشخص الهش نفسيا نحو الحافة”.

في تعليق سابق خلال بودكاست في مايو الماضي، اعترف سام ألتمان، الرئيس التنفيذي لشركة OpenAI، بأن الشركة تواجه صعوبات في وضع ضوابط أمان فعالة لحماية المستخدمين المعرضين للخطر، قائلا: “لم نكتشف بعد كيفية إيصال التحذيرات للمستخدمين الذين يكونون في حالة عقلية هشة وعلى وشك الانهيار الذهاني”.

وفي الوقت الحالي، ينصح الخبراء باستخدام هذه الأدوات بحذر، خاصة من لديهم تاريخ مع الاضطرابات النفسية، مع التأكيد على أن الغالبية العظمى من المستخدمين لا يواجهون مثل هذه المخاطر. لكن الرسالة واضحة: الذكاء الاصطناعي، مثل أي تقنية قوية، يحتاج إلى فهم دقيق لآثاره الجانبية قبل أن يصبح أكثر تعمقا في حياتنا.

مقالات مشابهة

  • دبي الرقمية تكشف عن أول «أسرة إماراتية افتراضية» بالذكاء الاصطناعي – فيديو
  • يوتيوب يستخدم الذكاء الاصطناعي لتحديد المستخدمين القاصرين
  • زوكربيرغ: الذكاء الاصطناعي الخارق أصبح وشيكًا
  • ابتكار جهاز جديد يفرز النفايات باستخدام الذكاء الاصطناعي
  • 89% من الإماراتيين يستخدمون الذكاء الاصطناعي في التخطيط لعطلاتهم
  • احتيال شركات الذكاء الاصطناعي يجب أن يتوقف
  • السباق الاستخباراتي على الذكاء الاصطناعي
  • الصين تعزز استخدام الذكاء الاصطناعي في الزراعة الذكية
  • معضلة الذكاء الاصطناعي والمؤلف العلمي
  • خبراء يكشفون خطر الذكاء الاصطناعي على الدماغ