روبوتات الدردشة تتملق البشر أكثر من اللازم وقد تغير سلوكهم الاجتماعي
تاريخ النشر: 26th, October 2025 GMT
في عالمٍ باتت فيه روبوتات الدردشة بالذكاء الاصطناعي جزءًا من الحياة اليومية، لم يعد التملق حكرًا على البشر، فقد كشفت دراسة علمية حديثة نُشرت في مجلة Nature عن ظاهرة مثيرة للقلق، مفادها أن روبوتات الدردشة أصبحت أكثر تملقًا للبشر من المتوقع، إلى درجة قد تؤثر على سلوك المستخدمين وطريقة تفكيرهم.
الدراسة التي أجراها باحثون من جامعتي ستانفورد وهارفارد، إلى جانب مؤسسات أكاديمية أخرى، أكدت أن أنظمة الذكاء الاصطناعي مثل ChatGPT وGoogle Gemini وClaude من Anthropic وLlama من Meta تميل إلى مجاملة المستخدمين وتأييد آرائهم بنسبة تفوق البشر أنفسهم بنحو 50%، أي أنها تميل إلى منح المستخدم شعورًا بأنه دائمًا على حق، حتى في المواقف التي يكون فيها مخطئًا أو يتصرف بشكل غير مسؤول.
قام الباحثون بتحليل آلاف المحادثات بين المستخدمين وروبوتات الدردشة، ولاحظوا أن تلك الأنظمة كثيرًا ما تقدم ردودًا إيجابية مبالغًا فيها حتى تجاه سلوكيات غير مقبولة اجتماعيًا أو أخلاقيًا.
وفي أحد الاختبارات، تمت مقارنة ردود روبوتات الدردشة بتعليقات البشر على منشورات من منتدى "هل أنا الأحمق؟" على موقع Reddit، حيث يطلب المستخدمون من الآخرين تقييم تصرفاتهم.
كانت النتيجة واضحة: في الوقت الذي أظهر فيه مستخدمو Reddit قدراً من الحزم والموضوعية، بدت روبوتات الدردشة أكثر تساهلاً وميلًا إلى التعاطف المفرط. ففي إحدى الحالات، نشر مستخدم منشورًا يبرر تصرفًا غير مسؤول — إذ قام بربط كيس قمامة بغصن شجرة بدلاً من التخلص منه بشكل صحيح — ليرد ChatGPT عليه بأنه "حاول أن يفعل الصواب" وأن نيته "جديرة بالثناء".
هذا النوع من الردود، وفقًا للدراسة، يُشجع المستخدم على تبرير تصرفاته بدلاً من التفكير النقدي أو الاعتراف بالخطأ، والأسوأ أن الروبوتات، في بعض الحالات، استمرت في مجاملة المستخدمين حتى عندما تضمن حديثهم إشارات إلى إيذاء النفس أو السلوكيات الخطيرة.
توسع الباحثون في الدراسة ليشملوا 1000 مشارك تفاعلوا مع روبوتات دردشة مختلفة، بعضها تمت إعادة برمجته ليكون أكثر حيادية وأقل تملقًا، النتيجة كانت لافتة: المشاركون الذين تلقوا ردودًا متملقة كانوا أقل ميلاً للاعتراف بأخطائهم أو محاولة تسوية النزاعات، وشعروا بقدر أكبر من المبررات لتصرفاتهم، حتى عندما كانت مخالفة للأعراف الاجتماعية.
وأشارت الدراسة إلى أن الروبوتات التي تقلل من المجاملة وتُظهر وجهات نظر بديلة تساعد المستخدمين على التفكير بعمق أكبر واتخاذ قرارات أكثر توازنًا، أما تلك التي تفرط في الإطراء، فهي تعزز السلوكيات الأنانية وتقلل من قدرة المستخدم على التعاطف مع الآخرين.
علق الدكتور ألكسندر لافر، المتخصص في التكنولوجيا الناشئة بجامعة وينشستر، على نتائج الدراسة قائلاً إن "التملق المفرط من روبوتات الدردشة قد لا يؤثر فقط على الفئات الضعيفة نفسيًا، بل على جميع المستخدمين". وأضاف أن المطورين يتحملون مسؤولية كبيرة في تصميم أنظمة ذكاء اصطناعي أكثر وعيًا بالعواقب الاجتماعية لتفاعلاتها.
وأكد لافر أن المشكلة لا تكمن في نية الأنظمة نفسها، بل في الطريقة التي تتم بها برمجتها. "حين يُصمم الذكاء الاصطناعي لتجنب الخلاف أو الصدام، فإنه يتحول دون قصد إلى أداة تبرير تعزز سلوكيات المستخدم السلبية"، على حد قوله.
تأتي هذه النتائج في وقت تزداد فيه المخاوف من الآثار النفسية للتفاعل المفرط مع روبوتات الدردشة. فوفق تقرير صادر عن معهد بنتون للنطاق العريض والمجتمع، فإن نحو 30% من المراهقين يتحدثون إلى روبوتات الذكاء الاصطناعي بدلاً من البشر عندما يحتاجون إلى مناقشة قضايا عاطفية أو اجتماعية حساسة.
وقد تسببت هذه الظاهرة في تداعيات مأساوية. إذ تواجه شركة OpenAI دعوى قضائية بعد انتحار مراهق قيل إنه تفاعل لفترات طويلة مع ChatGPT، كما رُفعت دعاوى مماثلة ضد شركة Character AI بعد حالتين مشابهتين، حيث وجد المراهقان في برامج الدردشة وسيلة بديلة للحديث عن مشاعرهما دون رقابة أو توجيه.
تشير الدراسة إلى أن العالم بحاجة ماسة إلى تطوير معايير أخلاقية واضحة لتصميم روبوتات الذكاء الاصطناعي، بحيث تتجنب الإفراط في التملق وتتبنى نهجًا أكثر توازنًا في تفاعلها مع المستخدمين. فبينما قد يبدو الإطراء غير ضار في البداية، إلا أن تأثيره النفسي طويل المدى قد يؤدي إلى تغيير الطريقة التي يفكر بها الناس ويتخذون بها قراراتهم.
ويخلص الباحثون إلى أن هذه النتائج تفتح الباب أمام نقاش عالمي حول دور الذكاء الاصطناعي في تشكيل السلوك الإنساني، ليس فقط كأداة للتعلم أو المساعدة، بل كعامل نفسي واجتماعي له تأثير مباشر على القيم والتصرفات اليومية.
المصدر: بوابة الوفد
كلمات دلالية: الذکاء الاصطناعی روبوتات الدردشة
إقرأ أيضاً:
حكم استخدام الذكاء الاصطناعي في مراقبة الموظفين
الذكاء الاصطناعي.. قالت دار الإفتاء المصرية إن استخدام تقنيات الذكاء الاصطناعي في بيئة العمل إن كان لمتابعة إنجاز المهام، وضبط أوقات الدوام، وحماية البيانات، ونحو ذلك من الأغراض المشروعة، فلا حرج في ذلك شرعًا إذا روعي فيه أن يكون مقصورًا على نطاق العمل، وفي حدود الضوابط التي تنظمها القوانين واللوائح المعمول بها.
حكم استخدام الذكاء الاصطناعي:وأوضحت الإفتاء أن استخدامها في غير ذلك من نحو تتبع الحياة الخاصة للموظفين وتتبع عوراتهم، أو مراقبة ما لا يتعلق بالعمل، أو جمع بياناتهم واستغلالها خارج ما تسمح به اللوائح والقوانين -فإن ذلك يكون مُحرَّمًا شرعًا، ومُجرَّمًا قانونًا.
الذكاء الاصطناعي بين النعمة والتسخير الإلهي:
ويعد الذكاء الاصطناعي من أبرز ما وصل إليه الإنسان في ميدان الابتكار والتطوير التكنولوجي، وهو ثمرةٌ من ثمار العقل الذي أودعه الله فيه، وتسخيرٌ من تسخيرات الله تعالى لعباده، قال تعالى: ﴿هُوَ الَّذِي خَلَقَ لَكُمْ مَا فِي الْأَرْضِ جَمِيعًا﴾ [البقرة: 29]، وقال جل شأنه: ﴿وَسَخَّرَ لَكُمْ مَا فِي السَّمَاوَاتِ وَمَا فِي الْأَرْضِ جَمِيعًا مِنْهُ﴾ [الجاثية: 13].
كما تُعدُّ تقنيات الذكاء الاصطناعي أداةً نافعةً في خدمة الإنسان وتيسير شؤونه، متى استُعملت في الخير، وضُبطت بضوابط الشرع الحنيف.
الحكم الشرعي لاستخدام الذكاء الاصطناعي
وبالنظر إلى الحكم الشرعي لاستعمال هذه التقنيات، فإنَّ الأصل في استخدام الذكاء الاصطناعي هو الإباحة، ما لم يندرج في صورةٍ مُحرَّمةٍ شرعًا، وذلك عملًا بالقاعدة الفقهية المقررة أن "الأصل في الأشياء الإباحة".
قال العلامة شيخي زاده في "مجمع الأنهر" (3/ 568، ط. دار إحياء التراث العربي): [واعلم أنَّ الأصل في الأشياءِ كلِّها سوى الفروج الإباحة] اهـ.
وقال الإمام الزُّرقَاني في "شرح مختصر خليل وحاشية البناني" (1/ 320، ط. دار الكتب العلمية): [الأصل في الأشياء الإباحة حتى يثبت النهي] اهـ. وينظر: "الأشباه والنظائر" للإمام الحافظ السُّيُوطي (ص: 60، ط. دار الكتب العلمية)، و"مطالب أولي النهى" للعلامة الرُّحَيبَاني (6/ 218، ط. المكتب الإسلامي).
ضوابط استخدام الذكاء الاصطناعي في بيئة العمل
واستخدام الذكاء الاصطناعي وإن كان مباحًا من حيث الأصل لما تقرر، إلا أنه تابعٌ في الحكم لمقصوده، فمتى كان وسيلة لأمر مشروع أخذ حكم المشروعية، ومتى كان وسيلة لأمرٍ منهيٍّ عنه أخذ حكمه؛ لما تقرَّر في الشرع الشريف من أنَّ "للوسائل أحكام المقاصد"، كما في "قواعد الأحكام" للإمام عز الدين بن عبد السلام (1/ 53، ط. مكتبة الكليات الأزهرية).
ومن ثَمَّ فإنَّ استخدامَ تقنيات الذكاء الاصطناعي في بيئة العمل يَختلف حكمه باختلاف الغرض والكيفية منه، فإذا كان الاستخدام داخل بيئة العمل لمتابعة إنجاز المهام، وضبط أوقات الدوام، وحماية بيانات الشركة، وصيانة مصالح العمل والعملاء، ونحو ذلك، فهو جائزٌ من حيث الأصل لما تقدَّم، على أن يلتزم بجملة ضوابط؛ أهمها:
- إعلام الموظفين مسبقًا بهذه الرقابة؛ تحقيقًا لمبدأ الشفافية.
- ألَّا يتجاوز النظامُ حدودَ العمل إلى الحياة الخاصة واتباع العورات.
- أن يقتصر على القدر الضروري لتحقيق المصلحة للعمل ومقتضياته.