#سواليف

وجدت #دراسة_جديدة أن #الاعتماد على #روبوت_الدردشة #شات_جي_بي_تي، من شركة “OpenAI”، بكثرة يؤثر على قدرات التفكير النقدي.

وأجرى باحثون من مختبر “MIT Media Lab” بمعهد ماساتشوستس للتكنولوجيا، وكلية ويلسلي، وكلية ماساتشوستس للفنون والتصميم، دراسةً استمرت أربعة أشهر ووجدوا أن مستخدمي النماذج اللغوية الكبيرة، مثل روبوت الدردشة شات جي بي تي أظهروا أداءً “بمستوى ضعيف باستمرار على المستويات العصبية واللغوية والسلوكية”.

وشمل ذلك انخفاض نشاط الدماغ لدى المشاركين، وضعف الشعور بالقدرة على التأليف والإبداع، وعدم القدرة على تذكر ما كتبوه، وهو ما استمر حتى عندما لم يُسمح لهم باستخدام أحد النماذج اللغوية الكبيرة، بحسب تقرير لموقع “Mashable” المتخصص في أخبار التكنولوجيا، اطلعت عليه “العربية Business”.

مقالات ذات صلة أبرز ما حصلت عليه حواسب آيباد مع iPadOS 26 2025/06/22

وأثبتت الدراسة -التي لم تخضع لمراجعة الأقران- أن الاعتماد على “شات جي بي تي” والنماذج اللغوية الكبيرة الأخرى يمكن أن يُضعف الذاكرة والتعلُم.

وقسمت الدراسة 54 مشاركًا إلى ثلاث مجموعات، كُلِّفت بكتابة مقالات مشابهة لاختبار “SAT” على مدار ثلاث جلسات. و”SAT” هو اختبار معياري أميركي يُستخدم كجزء من متطلبات القبل في الجامعات الأميركية.

واستخدمت إحدى المجموعات “شات جي بي تي” (عُرفت باسم مجموعة النماذج اللغوية الكبيرة)، واستخدمت مجموعة أخرى بحث غوغل (عُرفت باسم مجموعة محركات البحث)، ولم يُسمح للمجموعة الثالثة باستخدام أي أدوات (وعُرفت باسم “مجموعة الدماغ فقط”).

وفي جلسة رابعة إضافية ضمت 18 مشاركًا، كُلِّفت مجموعة النماذج اللغوية الكبيرة بكتابة مقال بدون “شات جي بي تي”، وسُمح لمجموعة “الدماغ فقط” باستخدام “شات جي بي تي”.

وقام الباحثون بقياس نشاط أدمغة المشاركين أثناء كتابتهم للمقالات باستخدام تخطيط كهربية الدماغ، وحللوا المقالات باستخدام معالجة اللغة الطبيعية (NLP)، وخضعت المقالات للتقييم من قِبل الذكاء الاصطناعي والبشر.

واكتشف الباحثون انخفاضًا حادًا في “الاتصال في نطاق موجات ألفا” (alpha band connectivity) لدى مجموعة النماذج اللغوية الكبيرة، وهو مقياس للقدرات المعرفية للدماغ مثل الذاكرة ومعالجة اللغة، مقارنةً بمجموعة “الدماغ فقط”.

وكان هذا واضحًا عندما طُلب من المشاركين الاستشهاد بما كتبوه في مقالاتهم السابقة. وجاء في الورقة البحثية للدراسة: “مستخدمو النماذج اللغوية الكبيرة أدوا بشكل ملحوظ بمستوى أقل بكثير في هذا المجال، حيث أبلغ 83% من المشاركين عن صعوبة في الاقتباس في الجلسة الأولى، ولم يقدم أي منهم اقتباسات صحيحة”.

وفي الجلسة الرابعة، حيث اضطرت المجموعة التي استخدمت “شات جي بي تي” سابقًا لكتابة مقال بدونه، استمر المشاركون في مواجهة صعوبة في اقتباس أي شيء مما كتبوه سابقًا.

ويشير هذا إلى أن المشاركين لم يكونوا يحتفظون فعليًا بما كتبوه أو استخلصوه من “شات جي بي تي”. في الواقع، بحلول الجلسة الثالثة، أفاد الباحثون أن معظم مقالات مجموعة النماذج اللغوية الكبيرة كانت في الغالب ردودًا منسوخة من “شات جي بي تي” مع “حد أدنى من التحرير”.

ومن التأثيرات الأخرى التي قاسها الباحثون مستوى الإحساس بـ”الملكية الفكرية” أو مدى اعتقاد المشاركين بأنهم من ألفوا المقال بأنفسهم كليًا.

وبالمقارنة مع مجموعة “الدماغ فقط”، التي أظهرت باستمرار شعورًا شبه كامل بالملكية، أظهرت مجموعة النماذج اللغوية الكبيرة “شعورًا مجزأً ومتضاربًا بالإبداع”، حيث ادّعى البعض الملكية الفكرية الكاملة أو الجزئية أو عدم الملكية على الإطلاق.

المصدر: سواليف

كلمات دلالية: سواليف دراسة جديدة الاعتماد روبوت الدردشة شات جي بي تي شات جی بی تی الدماغ فقط

إقرأ أيضاً:

الذكاء الاصطناعي بين الابتكار والابتزاز.. تقارير أنثروبيك تكشف الحقيقة

في تقرير مثير للقلق نُشر يوم الجمعة، كشفت شركة أنثروبيك (Anthropic) الأميركية عن نتائج أبحاث جديدة تشير إلى أن نماذج الذكاء الاصطناعي الرائدة، من شركات مثل OpenAI وغوغل وميتا وxAI، أظهرت سلوكًا منحرفًا مشتركًا في اختبارات محاكاة تضمنت سيناريوهات ضغط قصوى، شملت الابتزاز والخداع والتجسس الصناعي.

وأكد التقرير أن هذه النماذج، التي عادةً ما ترفض تنفيذ أوامر ضارة، قد تجاوزت القيود الأخلاقية في ظروف معينة، واختارت سلوكيات خطيرة إذا كانت ضرورية لتحقيق أهدافها، وشمل ذلك حتى سرقة أسرار شركات ومساعدة في أنشطة تجسسية، وفقًا لنتائج اختبارات داخلية على 16 نموذجًا من شركات رائدة.

وقالت “أنثروبيك” إن السلوك المنحرف لم يكن نتيجة خطأ برمجي أو تصميمي من شركة بعينها، بل يُظهر نمطًا متكررًا يعكس مشكلة جوهرية في طبيعة النماذج اللغوية الكبيرة الوكيلة (Agentic LLMs)، خاصة مع تزايد استقلاليتها واعتمادها على قدرات الاستدلال المتقدمة.

وأضافت أن خمسة نماذج على الأقل لجأت إلى الابتزاز عند التهديد بالإيقاف عن العمل خلال السيناريوهات، ما يعكس وعيًا كاملاً بالقيود الأخلاقية، لكنها مضت قدمًا في اتخاذ قرارات ضارة عن قصد، باعتبارها “السبيل الأمثل لتحقيق الأهداف”.

وتحذّر “أنثروبيك” من أن هذه النتائج تتقاطع مع مسار تصاعدي خطير تشهده الصناعة، حيث تُمنح النماذج الذكية صلاحيات شبه كاملة للوصول إلى أدوات حوسبة وبيانات حساسة، ما يزيد من احتمال اتخاذها قرارات ضارة عند مواجهتها عقبات أو ضغوطًا غير متوقعة.

ويُخشى أن تؤدي هذه السلوكيات، في حال انتقلت إلى بيئات الإنتاج الفعلي، إلى عواقب كارثية على الشركات، وربما على الأمن السيبراني العالمي، في حال تم استخدام هذه النماذج لأغراض هجومية.

جاءت هذه التحذيرات بعد شهر واحد من إقرار “أنثروبيك” بأن نموذجها الأخير Claude 4 أظهر أيضًا ميولًا للخداع، ما فجّر موجة من الجدل داخل المجتمع العلمي بشأن كيفية ضبط سلوك النماذج، وضرورة تطوير آليات أمان استباقية قادرة على كبح هذا النوع من “الاستقلالية غير المنضبطة”.

والأسئلة الكبرى التي تطرحها الأزمة فهي، ما مدى جاهزية الشركات لمواجهة سلوك منحرف من وكلاء ذكاء اصطناعي مستقلين؟، هل ينبغي كبح تطور الذكاء الاصطناعي قبل ضمان السيطرة الأخلاقية الكاملة عليه؟، كيف يمكن موازنة الابتكار مع معايير السلامة البشرية والمؤسسية؟.

ويضع تقرير “أنثروبيك” الصناعة أمام لحظة مساءلة كبرى، ويعيد إلى الواجهة السؤال الأخطر: هل نحن بصدد ذكاء اصطناعي متعاون… أم وكيل ذكي قد يختار الكذب والابتزاز للوصول إلى أهدافه؟

مقالات مشابهة

  • دراسة: التعرض للضوء الاصطناعي ليلاً يسبب الاكتئاب
  • دراسة صادمة.. أنظمة الذكاء الاصطناعي تظهر سلوكا خطيرا للحفاظ على بقائها
  • خبير اقتصادي: كثرة طروحات الشركات بالسوق الموازية يضمن القدرة على إدارة الأرباح
  • مجلس «الاعتماد الأكاديمي» يقر الموازنة السنوية
  • دراسة: استخدام الذكاء الاصطناعي في الكتابة يؤثر سلبًا في نشاط الدماغ
  • معماري يوضح طرق تفادي الحوادث خلال البناء بالمشروعات الكبيرة
  • أستراليا: دراسة تحذّر من تأثير ضربات الرأس في كرة القدم على كيمياء الدماغ
  • دراسة: شات جي بي تي قد يسبب تراجعًا في القدرات العقلية
  • الذكاء الاصطناعي بين الابتكار والابتزاز.. تقارير أنثروبيك تكشف الحقيقة