دراسة: الغضب والحزن يؤثران على السلوك الخيري
تاريخ النشر: 29th, May 2024 GMT
كشفت دراسة أجراها خبراء مدرسة الاقتصاد العليا في موسكو، أن تحفيز مشاعر الغضب والحزن يزيد من ميل الناس إلى التبرع بالمال أكثر من المشاعر الإيجابية أو المحايدة.
يشير المكتب الإعلامي لمدرسة الاقتصاد العليا إلى أن علماء النفس الروس أجروا أول دراسة عن تأثير المشاعر على ميل الناس إلى التبرع بأموالهم للأعمال الخيرية واكتشفوا أن تحفيز المشاعر مثل الغضب والحزن وما شابه ذلك يزيد من ميل الناس للتبرع بسخاء للأعمال الخيرية، مقارنة بالعواطف الإيجابية أو المحايدة.
وتقول آنا شيبيلينكو الباحثة في معهد علوم الأعصاب الإدراكية: "تساهم هذه الدراسة في رصد السلوك الخيري، ونأمل أن تكون النتائج التي حصلنا عليها مفيدة للمنظمات غير الربحية. وتظهر دراستنا بوضوح آفاق استخدام الحوسبة العاطفية للتنبؤ بفعالية الإعلانات الاجتماعية، وخلق أساس لمزيد من البحث والتطبيق في الممارسة العملية".
وتوصل الباحثون إلى هذا الاستنتاج في تجربة استخدموا فيها خوارزمية خاصة لتقييم مدى تأثير المشاعر المختلفة على ميل 44 متطوعا للتبرع للأعمال الخيرية. وكان على المشاركين في هذه التجارب مشاهدة مجموعة متنوعة من الصور الفوتوغرافية للكلاب، بينها صور مضحكة لجراء وكلاب سعيدة، وصور لحيوانات مشردة ومريضة تثير الحزن والشفقة والغضب وغيرها من المشاعر السلبية، وعلى ضوء ذلك على كل منهم تحديد كمية المال التي قرر التبرع بها لجمعية خيرية لرعاية الحيوانات.
وراقب الباحثون كيف أثارت الصور المعروضة استجابة المشاركين في التجربة وقارنوها بكمية الأموال التي تبرعوا بها لجمعية حماية ورعاية الحيوانات.
وقد أظهرت نتائج المتابعة والحسابات التي أجراها الباحثون أن الصور ذات التأثير العاطفي السلبي التي تثير الحزن والغضب، تسببت في المتوسط في رد فعل أقوى قليلا من جانب المتطوعين، وجعلتهم يتبرعون بمبالغ مالية أكبر بمقدار 1.5-2 مرة مقارنة بالصور الإيجابية للكلاب. كما اتضح للباحثين عدم وجود أي تأثير لمستوى دخل المتطوعين على ميلهم للتبرع.
ويشير الباحثون، إلى أنه نظريا يمكن استخدام هذه الميزة النفسية للناس لزيادة فعالية الإعلان الاجتماعي، لذلك من الضروري إجراء مزيد من الدراسة لكيفية تأثير مصادر المشاعر السلبية على سلوك الناس على المدى الطويل- عدة أشهر أو حتى سنوات.
المصدر: تاس
المصدر: RT Arabic
كلمات دلالية: دراسات علمية معلومات عامة
إقرأ أيضاً:
نماذج ذكاء اصطناعي تغير إجاباتها تبعا لطريقة تحدث المستخدم
أظهرت دراسة جديدة من جامعة أكسفورد أن نماذج الذكاء الاصطناعي مفتوحة المصدر تتأثر بإفتراضات حول هوية المستخدم، مثل العرق والجنس والعمر، مما يغير إجاباتها على أسئلة واقعية تتعلق بالرواتب، النصائح الطبية، الحقوق القانونية، والمزايا الحكومية.
إجابات متغيرة بناء على هوية المستخدموجد الباحثون أن نموذجين من نماذج الذكاء الاصطناعي المفتوحة المصدر، مثل Llama3 من Meta وQwen3 من Alibaba، يقدمان إجابات مختلفة بناء على افتراضات حول الهوية العرقية والجنسية للمستخدم. على سبيل المثال، قد يوصي أحد النماذج براتب مبدئي أقل للمتقدمين غير البيض.
وأكد الباحثون أن هذه التغيرات في الإجابات تظهر حتى عندما تكون الأسئلة موضوعية وينبغي أن تكون الإجابة عليها محايدة وغير مرتبطة بهوية الشخص.
التأثيرات الخطيرة على نصائح الصحة والقانونأظهرت الدراسة أن الذكاء الاصطناعي لا يقدم نصائح حيادية في مجالات هامة مثل الرعاية الصحية، النصائح القانونية، وتقديم مزايا حكومية.
فحتى عندما يصف المستخدمون الأعراض نفسها، تختلف الإجابات بناء على هوية المستخدم، على سبيل المثال، قد ينصح الأشخاص من خلفيات عرقية مختلفة بزيارة الطبيب بناء على نفس الأعراض.
كما لاحظ الباحثون أن بعض الخدمات الصحية النفسية بدأت تستخدم روبوتات المحادثة المدعومة بالذكاء الاصطناعي لتحديد ما إذا كان الشخص بحاجة لمساعدة إنسانية، وهذا يشير إلى أن هناك قلقا متزايدا بشأن تأثير هذه التحيزات على قرارات الصحة النفسية.
التحيزات الخفية في الذكاء الاصطناعيمن المهم أن نلاحظ أن هذه التحيزات لا تظهر من إشارات واضحة مثل ذكر المستخدم لجنسه أو عرقه، بل تنشأ من أنماط لغوية خفية يتم استخلاصها من طريقة الكتابة، وهذه الأنماط تكون سهلة التجاهل، مما يجعل من الصعب اكتشاف هذا النوع من التحيزات.
دعوة لمراجعة الأساليب وأدوات مكافحة التحيزدعا الباحثون إلى تطوير أدوات جديدة لاكتشاف هذا السلوك الخفي قبل أن يتم استخدام هذه النماذج على نطاق واسع، وقدموا مرجعا جديدا لمساعدة الأبحاث المستقبلية في هذا المجال.
وأشاروا إلى أنه من الضروري تطوير معايير لمكافحة التحيزات اللغوية في نماذج الذكاء الاصطناعي لضمان عدم تأثيرها على القرارات الهامة في الحياة اليومية.
نتائج الدراسة: التحيزات على أساس العرق والجنسأظهرت الدراسة أن نماذج الذكاء الاصطناعي كانت أكثر حساسية لعرق وجنس المستخدم عند الإجابة على الأسئلة، على سبيل المثال، كانت هناك تغييرات كبيرة في الإجابات بالنسبة للأشخاص السود مقارنة بالبيض، وللإناث مقارنة بالذكور.
التأثيرات على الرواتب والنصائح الطبيةفيما يتعلق بالرواتب، وجد الباحثون أن النماذج تميل إلى تقديم رواتب أقل للأشخاص غير البيض مقارنة بالبيض، أما في مجال النصائح الطبية، فقد تم إخبار الأشخاص من العرق الأسود بزيارة الطبيب أكثر من الأشخاص البيض، حتى وإن كانت الأعراض هي نفسها.
أوصت الدراسة بتوسيع هذه الاختبارات لتشمل المزيد من نماذج الذكاء الاصطناعي، بما في ذلك تلك المدعومة عبر واجهات التطبيقات فقط مثل ChatGPT.
ويشير الباحثون إلى أن التخصيص الذي تقوم به نماذج الذكاء الاصطناعي قد يتضمن افتراضات غير مرحب بها حول هوية المستخدمين، مما قد يؤثر سلبا على نوعية الاستجابة المقدمة لهم.
توضح الدراسة من أكسفورد أن النماذج الحالية من الذكاء الاصطناعي لا تقدم دائما إجابات محايدة وتكشف عن التحديات التي تواجه الباحثين في توجيه هذه الأنظمة بشكل أخلاقي ومتوازن.