هل يستطيع الذكاء الاصطناعي التفكير مثلنا؟.. دراسة تكشف المفارقات!
تاريخ النشر: 2nd, April 2025 GMT
مع التقدم السريع في الذكاء الاصطناعي، أصبح من الواضح أن هذه الأنظمة قادرة على تنفيذ مهام معقدة مثل تحليل البيانات، وإنتاج النصوص، وتقديم استشارات قانونية. ومع ذلك، هل يمكن للذكاء الاصطناعي أن يفكر مثل البشر؟.. فنحن نعلم أن الذكاء الاصطناعي لا يستطيع التفكير بنفس طريقة الإنسان، لكن بحثاً جديداً كشف كيف يمكن لهذا الاختلاف أن يؤثر على عملية اتخاذ القرار لدى الذكاء الاصطناعي، مما يؤدي إلى عواقب واقعية قد لا يكون البشر مستعدين لها.
اقرأ أيضاً.. الذكاء الاصطناعي يحوّل الأفكار إلى كلام في الوقت الحقيقي
دراسة حديثة نُشرت في مجلة "Transactions on Machine Learning Research" كشفت أن هناك فجوة جوهرية في كيفية استدلال البشر مقارنة بالنماذج اللغوية الكبيرة (LLMs) مثل GPT-4. والاستدلال هو عملية استخراج جواب أو نتيجة بناء على معلومات معروفة مسبقاً وقد تكون صحيحة أو خاطئة.
فالبشر قادرون على التجريد والاستنتاج التناظري، بينما يعتمد الذكاء الاصطناعي بشكل أساسي على مطابقة الأنماط التي تعلمها، مما يؤدي إلى ضعف في قدرته على التكيف مع المواقف الجديدة.وفقاً لموقع "livescience".
بحثت الدراسة في مدى قدرة نماذج اللغة الكبيرة (LLMs) على تكوين تشبيهات. وتم اختبار قدرة النماذج اللغوية الكبيرة مثل GPT-4 على حل مشكلات التناظر في سلاسل الحروف.وجد الباحثون أنه في كل من تشبيهات سلسلة الأحرف البسيطة ومسائل المصفوفات الرقمية - كانت المهمة إكمال مصفوفة بتحديد الرقم المفقود - كان أداء البشر جيدًا، لكن أداء الذكاء الاصطناعي انخفض بشكل حاد.
لماذا يحدث هذا؟
تشير هذه النتائج إلى أن GPT-4 قد يعتمد بشكل كبير على أنماط محددة في بيانات تدريبه، مما يجعله أقل مرونة في التعامل مع مشكلات تتطلب استدلالاً تناظرياً عاماً. بالمقابل، يظهر البشر قدرة أفضل على تعميم الأنماط وتطبيقها في سياقات جديدة، حتى مع تغييرات في بنية المشكلة أو عند استخدام رموز غير مألوفة.
ما التداعيات؟
تُبرز هذه الفجوة أهمية تطوير نماذج ذكاء اصطناعي تتمتع بقدرات استدلال أكثر مرونة، خاصةً في التطبيقات التي تتطلب فهماً عميقًا وتكيفاً مع سياقات متنوعة. كما تؤكد الدراسة على ضرورة تقييم أداء هذه النماذج ليس فقط بناءً على دقتها، بل أيضاً على مدى قدرتها على التكيف مع تغييرات في المشكلات المطروحة.
لماذا يهمنا أن الذكاء الاصطناعي لا يفكر مثل البشر؟
أوضحت مارثا لويس، الأستاذة المساعدة في الذكاء الاصطناعي العصبي الرمزي بجامعة أمستردام، أن البشر لديهم قدرة فطرية على التجريد من الأنماط المحددة إلى قواعد أكثر عمومية، بينما يفتقر الذكاء الاصطناعي لهذه المهارة.
فالذكاء الاصطناعي بارع في مطابقة الأنماط التي رآها سابقاً لكنه لا يستطيع تعميمها بشكل فعال. على سبيل المثال، إذا درّبنا نموذجاً على عدد هائل من الأمثلة، فسيتمكن من التعرف على الأنماط المتكررة، لكنه لن يتمكن بالضرورة من اكتشاف القاعدة الأساسية وراء هذه الأنماط.
الكمية لا تعني الفهم
تعمل معظم تطبيقات الذكاء الاصطناعي على زيادة كمية البيانات لتصبح أكثر دقة، ولكن كما قالت لويس:
"الأمر لا يتعلق بكمية البيانات، بل بكيفية استخدامها".
لماذا علينا الاهتمام؟
إذا استمر الاعتماد على الذكاء الاصطناعي دون تحسين قدراته في التفكير المجرد، فقد يؤدي ذلك إلى مشكلات في: اتخاذ القرارات: قد يتعامل الذكاء الاصطناعي مع الحالات الجديدة بالطريقة نفسها التي تعامل بها مع حالات سابقة، من دون فهم التغيرات الجوهرية.
الأخلاقيات والتحيز: الذكاء الاصطناعي قد يكرر الأنماط الموجودة في البيانات من دون تحليل أعمق لسياقها وأخلاقياتها.
التطبيقات المتقدمة: مثل الرعاية الصحية، والقانون، والتعليم، حيث يلعب التجريد والاستدلال البشري دورًا أساسيًا.
ما الحل؟
نحتاج إلى تطوير نماذج ذكاء اصطناعي أكثر قدرة على التجريد والاستدلال، بحيث لا تكتفي بمقارنة الأنماط، بل تفهم المفاهيم الكامنة خلفها.
هل يمكن الوثوق بالذكاء الاصطناعي في القرارات القانونية؟
مع تزايد الاعتماد على الذكاء الاصطناعي في الأبحاث القانونية، وتحليل السوابق القضائية، وحتى التوصيات في الأحكام، تبرز مشكلة كبيرة بشأن قدرة الذكاء الاصطناعي المحدودة على إجراء المقارنات والاستدلال التناظري.
فعند التعامل مع القضايا القانونية، يعتمد القضاة والمحامون على مقارنة الحالات الجديدة بالسوابق القضائية. لكن بما أن الذكاء الاصطناعي يعتمد على مطابقة الأنماط بدلاً من فهم المبادئ القانونية الأساسية، فقد يفشل في التمييز بين الفروق الدقيقة في القضايا وتطبيق السوابق القانونية بشكل صحيح على حالات جديدة
وتقديم توصيات عادلة ومتسقة.
مثلاً: تخيل أن هناك سابقة قضائية لحالة تتعلق بالاحتيال الإلكتروني، ولكن القضية الجديدة تتضمن تقنيات جديدة لم تكن موجودة وقت صدور السابقة. البشر يمكنهم التفكير بشكل مرن لتطبيق القاعدة العامة، لكن الذكاء الاصطناعي قد يعجز عن الربط بين الحالتين بسبب الاختلافات الظاهرية.
اقرأ أيضاً..الذكاء الاصطناعي يتقن الخداع!
الدراسة أكدت أن تقييم الذكاء الاصطناعي لا يجب أن يقتصر على الدقة فقط، بل يجب أن يشمل قدرته على التكيف والاستدلال العميق. أي أننا بحاجة إلى نماذج أكثر ذكاءً واستقلالية في التفكير، وليس مجرد أدوات لحفظ البيانات واسترجاعها..بحيث لا يمكننا الاعتماد بالكامل على الذكاء الاصطناعي في القرارات القانونية دون تطويره ليكون أكثر قدرة على تحليل القواعد وتطبيقها بمرونة. حتى ذلك الحين، يجب أن يكون دوره داعماً وليس حاسماً.
لمياء الصديق (أبوظبي)
المصدر: صحيفة الاتحاد
كلمات دلالية: التكنولوجيا المتقدمة الذكاء الاصطناعي الذكاء الذکاء الاصطناعی
إقرأ أيضاً:
مقارنة بين GPT-5 وGPT-4.. تطور الذكاء الاصطناعي من الدقة إلى العمق
أعلنت شركة OpenAI، رسميا عن إطلاق نموذجها الأحدث GPT-5 يوم الخميس، وبدأت تدريجيا في توفيره لجميع مستخدمي ChatGPT.
وبالتزامن مع هذا الإطلاق، قررت الشركة إيقاف دعم عدد من النماذج السابقة مثل GPT-4o وGPT-4.1 وo3 وo3 Pro وo4-mini وغيرها، لتفسح المجال للنموذج الجديد ليكون هو الأساس في تقديم خدمات الذكاء الاصطناعي للمستخدمين.
ويعد GPT-5 التحديث الأضخم حتى الآن في سلسلة نماذج اللغة الكبيرة من OpenAI، حيث يقدم قفزة كبيرة في الأداء عبر مختلف المجالات، ويأتي مع تغييرات واضحة مقارنة بالإصدار السابق GPT-4o، إليكم أبرز ما جاء في التحديث:
ما الجديد في GPT-5 مقارنة بـ GPT-4o؟1. تفوق تقني واضح:
تصف OpenAI نموذج GPT-5 بأنه الأذكى على الإطلاق حتى الآن، مع أداء فائق في مجالات مثل البرمجة، الرياضيات، الكتابة، الرؤية الحاسوبية، والاستشارات الصحية،
الرئيس التنفيذي سام ألتمان وصفه بأنه بمستوى “خبير حاصل على درجة دكتوراه” في مجالات متعددة.
تؤكد الشركة أن GPT-5 يقدم ردودا أسرع وأكثر دقة، مع انخفاض بنسبة 45٪ في الأخطاء مقارنة بـ GPT-4o، و80٪ مقارنة بنموذج o3 المزود بخاصية البحث عبر الإنترنت.
ومع ذلك، لاحظ بعض المستخدمين على مواقع التواصل تباطؤا في الردود أو إجابات أقل دقة، مقارنة بالإصدار السابق.
3. تحسينات قوية في البرمجة:
GPT-5 هو الأقوى حتى الآن في مجال البرمجة، يمكنه إنشاء مواقع وتطبيقات وألعاب من خلال أوامر بسيطة بلغة طبيعية، مع تحسينات في تصميم الواجهات وحل أخطاء المشاريع البرمجية المعقدة.
بحسب OpenAI، يعد GPT-5 أفضل شريك للكتابة بفضل قدرته على تحويل الأفكار الأولية إلى نصوص ذات طابع أدبي وإيقاع لغوي قوي.
لكن تباينت آراء المستخدمين؛ فبينما أشيد بجودة السرد، انتقد البعض النموذج الجديد لضعف الإبداع ومحدودية التعبير العاطفي مقارنة بـ GPT-4o.
ركزت OpenAI على تطوير قدرات GPT-5 في تقديم إجابات طبية دقيقة وذات صلة، مع قدرة النموذج على طرح أسئلة توضيحية وتنبيه المستخدم لمشكلات صحية محتملة.
وتقول الشركة إن GPT-5 أصبح يقدم معلومات تتكيف مع مستوى المستخدم وموقعه الجغرافي، مع الالتزام بعدم تقديم استشارات طبية مباشرة.
أزالت OpenAI ميزة اختيار النموذج يدويا داخل ChatGPT. وبدلا من ذلك، يعتمد GPT-5 على نظام توجيه ذكي يختار تلقائيا النموذج الأنسب للإجابة حسب تعقيد السؤال ونوع الأداة المطلوبة.
- المستخدمون المجانيون: 10 رسائل كل 5 ساعات
- مشتركو Plus: 80 رسالة كل 3 ساعات
- مشتركو Pro: استخدام غير محدود للنموذج الأساسي
ونتيجة للانتقادات على إزالة النماذج السابقة، قررت OpenAI مضاعفة الحد مؤقتا لمشتركي Plus إلى 160 رسالة كل 3 ساعات.
في حال تجاوز الحد، يتم تحويل الطلبات إلى نسخة Mini من GPT-5.
8. انخفاض في الطابع الشخصي للنموذج:
رغم تحسن الدقة وتقليل المجاملات الزائدة sycophancy، أعرب عدد من المستخدمين عن استيائهم من افتقار GPT-5 للطابع الإنساني والشخصية الدافئة التي اشتهرت بها النماذج السابقة مثل GPT-4o.
ووصف البعض النموذج الجديد بأنه أكثر جفافا ورسميا، ما يقلل من تفاعله كرفيق أو مستشار شخصي.
وفي هذا السياق، صرح سام ألتمان بأن الشركة تعمل على جعل GPT-5 أكثر دفئا وإنسانية في التحديثات القادمة.