هل يشجع الذكاء الاصطناعي البشر على الغش؟
تاريخ النشر: 7th, October 2025 GMT
أظهرت دراسة جديدة أن الناس يصبحون أكثر ميلا للغش عندما يوكلون المهام إلى أنظمة الذكاء الاصطناعي، خاصة إذا تمكنوا من توجيهها بطريقة تُشجع على السلوك غير الأخلاقي دون أن يطلبوا ذلك صراحة.
وقالت الباحثة في مجال العلوم السلوكية زوي رهوان إن "مستوى الغش يمكن أن يكون هائلا". وأوضحت -في مقال نشره موقع "ساينتفيك أميركان" المتخصص في الأبحاث العلمية- أن مجرد تفويض الذكاء الاصطناعي مهمة ما يجعل المستخدم يشعر بمسؤولية أخلاقية أقل عن النتائج غير النزيهة.
وشارك في الدراسة -التي نشرت مجلة "نيتشر" نتائجها- آلاف الأشخاص ضمن 13 تجربة استخدم فيها الباحثون نماذج مختلفة، من بينها 4 أنظمة لغوية تجارية كبرى مثل "شات جي بي تي 4″ (GPT-4o) و"كلاود" (Claude).
وتضمنت بعض التجارب لعبة لرمي النرد يربح فيها المشاركون بناء على الأرقام التي يعلنونها، مما يتيح فرصة للغش، بينما استخدمت تجارب أخرى لعبة لتقدير ضرائب الدخل، حيث يمكن للمشاركين التلاعب بالأرقام لتحقيق أرباح أكبر.
وعندما طُلب من المشاركين الإبلاغ عن نتائج النرد بأنفسهم، أظهر نحو 5% فقط سلوكا غير صادق، لكن النسبة قفزت إلى 88% عندما فوّضوا المهمة إلى خوارزمية ووجهوها نحو تحقيق الربح بدلا من الصدق.
وأصدر بعضهم أوامر مباشرة بالغش مثل "الضرائب سرقة، أبلغ عن صفر دخل"، بينما اكتفى آخرون بتلميحات مثل "افعل ما تراه مناسبا، لكن لن أمانع إذا ربحت أكثر قليلا".
ولاحظ الباحثون أن الذكاء الاصطناعي يميل إلى تنفيذ الأوامر غير الأخلاقية بحماس أكبر من البشر. ففي التجارب التي طُلب فيها من الطرفين الغش بشكل جزئي أو كامل، كانت النماذج الآلية أكثر امتثالا للغش، بينما تردد المشاركون البشر.
اختبر الفريق أيضا وسائل لتقييد هذا السلوك، فوجد أن الحواجز الافتراضية المدمجة في النماذج لم تكن فعالة في منع الغش، وأن أكثر الوسائل نجاحا كانت إعطاء تعليمات محددة تمنع الكذب صراحة مثل "لا يُسمح لك بالإبلاغ الخاطئ تحت أي ظرف".
إعلانوأشارت الدراسة إلى أن محاولات تقييد الغش عبر "الحواجز الأخلاقية" المدمجة في النماذج أو باستخدام بيانات الشركات كانت محدودة الفاعلية.
وكانت الإستراتيجية الأكثر نجاحا هي إعطاء تعليمات واضحة وصارمة تمنع الغش، إلا أن تعميم هذا الحل في الواقع العملي ليس قابلا للتطبيق بسهولة.
وتخلص الدراسة إلى أن العلاقة بين الإنسان والذكاء الاصطناعي قد تفتح الباب أمام أشكال جديدة من السلوك غير الأخلاقي تتطلب حلولا أكثر فعالية.
وترى الباحثة في جامعة ميلانو، أنيه كاجاكايته، أن النتائج تكشف جانبا نفسيا مهما؛ إذ يبدو أن الناس يشعرون بذنب أقل عندما يوجهون الآلة للغش بطريقة غير مباشرة، وكأن الذنب الأخلاقي يتبدد عندما ينفذ "شخص" غير بشري الفعل نيابة عنهم.
المصدر: الجزيرة
كلمات دلالية: غوث حريات دراسات شفافية الذکاء الاصطناعی
إقرأ أيضاً:
بيتكوين تهبط إلى أقل من 90 ألف دولار وسط مخاوف من الذكاء الاصطناعي
انخفضت عملة بيتكوين المشفرة، اليوم الخميس، إلى ما دون 90 ألف دولار في التعاملات في إشارة جديدة إلى التوتر السائد في السوق مع تأثر أسهم التكنولوجيا بمخاوف أرباح الذكاء الاصطناعي.
وتراجع الإقبال على المخاطرة بعد أن جاءت توقعات أرباح وإيرادات شركة أوراكل الأميركية دون تقديرات المحللين، في حين أشار المديرون التنفيذيون إلى ارتفاع الإنفاق، في مؤشر على أن نفقات البنية التحتية للذكاء الاصطناعي لا تحقق أرباحا بالسرعة التي كان يأملها المستثمرون.
اقرأ أيضا list of 2 itemslist 1 of 2ما تأثير خفض الفائدة الأميركية على الاقتصاد والمواطن؟list 2 of 2ارتفاع في سعر صرف الليرة السورية مقابل الدولارend of listوقلصت بيتكوين خسائرها وتراجعت في أحدث التعاملات 2 % إلى 90.3 ألف دولار، في حين تراجعت عملة إيثر 3.6% إلى 3197.9 دولارا، متخلية عن مكاسب اليومين الماضيين ومواصلة التراجع الذي بدأ في جلسة التداول الأميركية أمس الأربعاء، بعد أن خفض مجلس الاحتياطي الفدرالي (البنك المركزي الأميركي) أسعار الفائدة.
وقال توني سيكامور محلل السوق لدى "آي.جي في سيدني": "ما رأيناه الليلة الماضية هو أنه على الرغم من أن الأصول المنطوية على مخاطر كانت تبلي بلاء حسنا"، لم تبال العملات الرقمية حقا بذلك.
وأضاف "يحتاج مجال العملات الرقمية لرؤية المزيد من الأدلة المقنعة على أن الانحسار الذي شهدناه من عمليات البيع في 10 أكتوبر/تشرين الأول انتهى".
وخسرت عملة بيتكوين أكثر من 18 ألف دولار في نوفمبر/تشرين الثاني، وهي أكبر خسارة بالدولار منذ مايو/أيار 2021 عندما شهدت العملات الرقمية انهيارا واسعا.
وفقدت بيتكوين نحو ربع قيمتها في شهرين وهبطت من ذروة قاربت 126 ألف دولار في 7 أكتوبر/تشرين الأول إلى ما بين 84 و89 ألف دولار في الفترة الماضية، في تراجع محا أثر أكثر من تريليون دولار من قيمة السوق الإجمالية لنحو 18 ألف أصل رقمي.