مع ازدياد اعتماد المؤسسات على النماذج اللغوية الكبيرة مثل “تشات جي بي تي” من “أوبن إيه آي” (OpenAI) التي أصبحت محوراً رئيسياً في عدد من القطاعات، لقدرتها على توليد نصوص تشبه النصوص البشرية ودعم عمليات اتخاذ القرار، يَبرز تساؤل هام: هل تُعدّ القرارات الخالية من التحيّز أمراً أساسياً لتحقيق الكفاءة والفاعلية؟

ونشرت مجلة” “إدارة عمليات التصنيع والخدمات”، مؤخراً دراسة بعنوان: “مدير تنفيذي وذكاء اصطناعي.

. هل يتخذ (ChatGPT) قرارات متحيّزة مثلنا؟”، تستكشف ما إذا كان “تشات جي بي تي” يُظهر أنماطاً من التحيّزات المعرفية البشرية عند وضعه في مواقف تتطلب اتخاذ قرارات تتعلق بإدارة العمليات.

ووفق المجلة، “تركّز الدراسة على 18 نوعاً شائعاً من التحيّزات البشرية، مثل الإفراط في الثقة، وتجنب الغموض، ومغالطة الاقتران بهدف تقييم مدى تعرض النموذج لهذه الأخطاء المعرفية”.

وتابعت، “أجرى الباحثون تجارب على نسختين من «ChatGPT» وهما«GPT-3.5»، و«GPT-4»، وقدموا لهما سيناريوهات مستمَدة من الأدبيات العلمية (سياقات تقليدية)، وأخرى مُعادة صياغتها ضمن سياقات متعلقة بإدارة المخزون والعمليات، وقد هدفت هذه المقاربة إلى اختبار مدى اتساق ردود النموذج عبر سيناريوهات مختلفة، وتحليل مدى تطابقها مع التحيّزات البشرية”.

وبحسب المجلة، “كشفت الدراسة عن عدد من النتائج الجوهرية التي تُلقي الضوء على سلوك النموذج في اتخاذ القرار”:

انعكاس جزئي لانحيازات البشر

في ما يقارب نصف التجارب، أظهر «تشات جي بي تي» أنماطاً من القرارات تشبه التحيّزات البشرية. فعلى سبيل المثال، في السيناريوهات التي تنطوي على درجة من عدم اليقين، أبدى النموذج ميلاً إلى تجنّب المخاطر وتفضيل الخيارات الآمنة، بما يتماشى مع ما يُعرف في علم النفس بسلوك البشر عند التعامل مع المخاطر. لكن على الجانب الآخر، وفي مسائل تتطلب تفكيراً منطقياً بحتاً مثل اختبارات الاحتمالات، اتخذ «ChatGPT» قرارات أكثر عقلانية وخالية من التحيّز.

اتساق ملحوظ عبر السياقات

أظهر النموذج اتساقاً كبيراً في طريقة اتخاذه القرارات بين السيناريوهات التقليدية وسيناريوهات إدارة العمليات، ما يشير إلى وجود منهجية منظمة وثابتة خلف قراراته، حتى عندما تتغير تفاصيل المهمة أو السياق الذي تعمل فيه.

تطوّر في الأداء بين النسخ

عند مقارنة النسختين «GPT-3.5» و«GPT-4»، لاحظ الباحثون أن النموذج الأحدث كان أكثر دقة في المسائل الرياضية المحددة، لكنه أظهر أيضاً مستويات أعلى من الانحياز في المسائل المتعلقة بالتفضيلات، مما يدل على أن التطور في قدرات النموذج قد يحسّن الأداء في بعض المهام، بينما يزيد احتمالية التحيّز في أخرى.

تحليل النتائج

ومع ازدياد استخدام النماذج اللغوية الكبيرة في بيئات العمل، هناك ثلاث نقاط يجب على مديري العمليات أخذها في الحسبان، يمكن الاستفادة من «ChatGPT» في المجالات التي تتطلب قرارات تستند إلى قواعد واضحة أو حسابات محددة، حيث أظهر النموذج أداء عقلانياً ودقيقاً، وعند التعامل مع مواقف تتطلب أحكاماً ذاتية أو تقييمات تستند إلى التفضيلات، يجب أن يكون هناك وعي بأن النموذج قد يعكس انحيازات البشر، لذا يُنصح بوجود آليات رقابية أو مراجعات بشرية لتفادي اتخاذ قرارات غير موضوعية.

كما تكشف نتائج الدراسة أيضاً عن “أبعاد أخلاقية مهمة مرتبطة بتوظيف الذكاء الاصطناعي في عمليات اتخاذ القرار، فإذا كانت هذه النماذج تكتسب تحيّزات البشر أو تعكسها، فقد يؤدي ذلك إلى استمرار، أو حتى تضخيم الأخطاء والتمييزات الموجودة مسبقاً. ومن هنا تبرز أهمية مراقبة أداء هذه النماذج باستمرار، وتطبيق إرشادات أخلاقية واضحة لضمان استخدامها بعدالة وشفافية”.

المصدر: عين ليبيا

كلمات دلالية: اتخاذ القرار الذكاء الاصطناعي الذكاء الاصطناعي والأخلاق تشات جي بي تي اتخاذ القرار تشات جی بی تی

إقرأ أيضاً:

DeepSeek تطلق تحديثا جديدا لنموذج الذكاء الاصطناعي R1-0528

أعلنت شركة DeepSeek الصينية الناشئة في مجال الذكاء الاصطناعي عن إصدار مُحدَّث من نموذجها الشهير R1، والذي يحمل الاسم R1-0528. 

ويتميز هذا التحديث بتحسينات ملحوظة في مجالات “الرياضيات، البرمجة، التفكير المنطقي العام”، مع تقليل كبير في المعلومات المضللة التي قد تنتج عن النموذج .

منصة Hugging Face

تم إطلاق النموذج الجديد على منصة Hugging Face، مما يعزز مكانة DeepSeek كمنافس جدي لنماذج الذكاء الاصطناعي الأمريكية مثل OpenAI's o3 وGoogle's Gemini 2.5 Pro .

على الرغم من عدم وجود إعلان رسمي مفصل؛ أظهرت اختبارات الأداء على منصة LiveCodeBench، التي طورتها جامعات UC Berkeley وMIT وCornell، أن النموذج الجديد R1-0528 يحتل مرتبة متقدمة في توليد الشيفرات، متفوقًا على نماذج مثل xAI’s Grok 3 mini وAlibaba's Qwen 3، بينما يأتي مباشرة بعد نماذج OpenAI's o4 mini وo3.

كل ما تحتاج معرفته عن DeepSeek.. تطبيق الدردشة الذكي الصيني المثير للجدلالنموذج الأصلي R1

يُذكر أن النموذج الأصلي R1، الذي تم إطلاقه في يناير 2025، أحدث تأثيرًا كبيرًا في السوق من خلال تقديم أداء منافس للنماذج الأمريكية بتكلفة أقل بكثير، مما دفع شركات مثل OpenAI وGoogle إلى إعادة النظر في استراتيجيات التسعير وإطلاق نماذج جديدة .

ومع هذا التحديث، تؤكد DeepSeek على التزامها بتطوير نماذج ذكاء اصطناعي متقدمة، وتستعد لإطلاق نموذجها القادم R2، الذي كان متوقعًا في مايو.

طباعة شارك DeepSeek Hugging Face Googles Gemini 25 Pro

مقالات مشابهة

  • «الذكاء الاصطناعي» أم الإنسان.. أيهما أفضل في كتابة المقالات؟ دراسة تكشف
  • هل يُعلن الذكاء الاصطناعي نهاية الفأرة ولوحة المفاتيح؟
  • DeepSeek تطلق تحديثا جديدا لنموذج الذكاء الاصطناعي R1-0528
  • مليار مستخدم لأداة «ميتا» الذكية
  • الذكاء الاصطناعي يعزز دقة التنبؤ بهياكل الأجسام المضادة
  • درميش: استدامة قطاع الطيران في ليبيا تتطلب بيئة سياسية مستقرة
  • الذكاء الاصطناعي يحسّن إدارة سكر الدم بعد جراحة القلب
  • ديب سيك للذكاء الاصطناعي تحدّث نموذجها للتفكير المنطقي
  • الدلافين تنادي بعضها بأسماء خاصة كالبشر
  • المخيزيم: مواجهة تحديات المياه تتطلب إرادة وحلولاً مبتكرة