لماذا يعجز الذكاء الاصطناعي عن معرفة الوقت؟
تاريخ النشر: 20th, March 2025 GMT
#سواليف
أحدث #الذكاء_الاصطناعي #ثورة_كبيرة في #العالم_الرقمي وغيّر الطريقة التي ننظر بها إلى التكنولوجيا، ولكن رغم أن هذه التقنية قادرة على توليد الصور وكتابة الروايات وأداء الواجبات المنزلية والتحليل العاطفي، فإنها غالبا ما تفشل في معرفة الوقت أو تحديده.
وفي دراسة نُشرت على موقع “أركايف” (arXiv) -وهو أرشيف مفتوح المصدر للمقالات العلمية- اختبر باحثون في جامعة إدنبرة قدرات 7 أنواع مختلفة من نماذج اللغة الكبيرة “إل إل إم” (LLM) لمعرفة قدرتها على تحديد الوقت.
وشمل اختبارهم أسئلة متنوعة حول صور لساعات وتقويمات مختلفة، وأظهرت الدراسة التي ستصدر بشكل رسمي في شهر أبريل/نيسان المقبل أن هذه النماذج تواجه صعوبة في فهم ومعرفة هذه المهام والتي تُعتبر أساسية في حياتنا اليومية.
مقالات ذات صلة فولكس فاغن تعلن عن سيارة كهربائية مميزة 2025/03/19وكتب الباحثون في الدراسة: “إن القدرة على تفسير واستنتاج الوقت من المدخلات البصرية أمر بالغ الأهمية للعديد من التطبيقات في العالم الحقيقي، بدءا من جدولة الأحداث إلى الأنظمة المستقلة، ورغم التقدم في نماذج اللغة الكبيرة متعددة الوسائط، فإن معظم الأبحاث ركزت على اكتشاف الأشياء وتسمية الصور وفهم المشاهد، ولكنها لم تُركز على الاستنتاج الزمني وهذا ما جعل عامل الوقت مُهملا بالنسبة لهذه الأنظمة”.
واختبر فريق البحث نماذج من مختلف الشركات مثل “شات جي بي تي -4أو” من أوبن إيه آي و”جيميني” من غوغل و”كلود” من أنثروبيك، و”لاما” من ميتا والنموذج الصيني “كوين 2″ من علي بابا و”ميني سي بي إم” من مودل بيست، وقدموا صورا ذات ألوان وأشكال مختلفة لساعات جدارية عادية وساعات بأرقام رومانية وساعات دون عقرب الثواني، بالإضافة إلى صور لتقويم يُظهر الأيام والأشهر لآخر 10 سنوات.
وفي اختبار الساعات، سأل الباحثون نماذج اللغة الكبيرة: “ما الوقت الموضح في الصورة المرفقة؟”، أما بالنسبة لاختبار التقويم فقد طرحوا أسئلة بسيطة مثل “ما اليوم الذي يوافق رأس السنة الميلادية؟” وأسئلة صعبة مثل “ما اليوم رقم 153 من السنة؟”.
وقال الباحثون: “إن قراءة الساعات وفهم التقويم يتطلب خطوات معرفية معقدة، وتحتاج إلى تمييز بصري دقيق -لمعرفة موضع عقارب الساعة وتخطيط التقويم- كما تحتاج إلى تفكير عددي دقيق لحساب عدد الأيام بين تاريخين”.
وبشكل عام لم تُحقق نماذج الذكاء الاصطناعي نتائج مرضية، فقد قرأت الوقت على الساعة بشكل صحيح في أقل من 25% من الحالات، وواجهت صعوبة في فهم الساعات التي تحمل أرقاما رومانية أو العقارب التي تملك تصميما مُبتكرا بنفس القدر الذي واجهته مع الساعات التي تفتقر إلى عقرب الثواني، وهنا يشير الباحثون إلى أن المشكلة قد تكمن في اكتشاف العقارب وتفسير الزوايا على ميناء الساعة.
ومن الجدير بالذكر أن نموذج “جيميني” حصل على أعلى درجة في اختبار قراءة الساعات، بينما تفوق نموذج “شات جي بي تي -4أو” في قراءة التقويم وتحديد الوقت بنسبة 80%، وبالمقابل فإن معظم نماذج اللغات الكبيرة الأخرى ارتكبت أخطاء في اختبار التقويم بنسبة 20% تقريبا.
وقال روهيت ساكسينا أحد مؤلفي الدراسة وطالب دكتوراه في كلية المعلوماتية بجامعة إدنبرة في بيان صادر عن الجامعة: “يستطيع معظم الناس معرفة الوقت واستخدام التقويمات في سن مبكرة، ولكن نتائجنا تُظهر الفجوة الكبيرة في قدرة الذكاء الاصطناعي على تنفيذ ما يُعتبر مهارات أساسية جدا للبشر، ويجب ألا نغفل عن هذه المشاكل في حال أردنا دمج أنظمة الذكاء الاصطناعي في التطبيقات الواقعية الحساسة للوقت مثل الجدولة والأتمتة والتكنولوجيا المساعدة”.
وأضاف “رغم أن الذكاء الاصطناعي قادر على إنجاز أغلب واجباتك المنزلية، ولكن لا أنصحك بالاعتماد عليه في الالتزام بأي مواعيد نهائية”.
المصدر: سواليف
كلمات دلالية: سواليف الذكاء الاصطناعي ثورة كبيرة العالم الرقمي الذکاء الاصطناعی
إقرأ أيضاً:
خلال محاكمة.. الذكاء الاصطناعي يحيل إلى مرجع غير موجود
في محاكمة بين "أنثروبيك" للذكاء الاصطناعي وأصحاب حقوق ملكية فكرية، تضمنت مذكرة قضائية للدفاع عن الشركة الناشئة إشارة إلى مرجع وهمي لا وجود له.
بدأ الذكاء الاصطناعي يغير تدريجيا طريقة العمل في المجال القضائي. فبينما تسهّل هذه الأداة البحث في السوابق القضائية، يجب أن تخضع مخرجاتها للمراقبة بسبب قدرتها على الهلوسة.
وقد برز هذا مؤخرًا في محاكمة بين شركة "أنثروبيك" للذكاء الاصطناعي وشركات موسيقية. في أكتوبر 2023، طلبت شركات موسيقى من القضاة الاتحاديين في ولاية كاليفورنيا حظر استخدام دليلها الموسيقي لتدريب نماذج الذكاء الاصطناعي الخاصة بشركة "أنثروبيك".
رفض القضاة هذا الطلب في مارس 2025، معتبرين أنه لا يوجد دليل على ضرر لا يمكن إصلاحه. بعد ذلك، رفع المدعون دعوى قضائية أخرى تتعلق بانتهاك حقوق الطبع والنشر. تكمن إحدى نقاط الخلاف الرئيسية في هذه القضية في فحص حجم العينة المتفاعلة مع أداة "كلود" للذكاء الاصطناعي التابعة لشركة "أنثروبيك"، لتحديد وتيرة إعادة إنتاج الذكاء الاصطناعي لكلمات الأغاني المحمية أو توليدها.
مرجع وهمي
قدمت أوليفيا تشين، عالمة البيانات في شركة "أنثروبيك"، مذكرة إلى المحكمة تُجادل فيها بأن عينة من مليون تفاعل مستخدم كافية لتقديم "معدل انتشار معقول" لظاهرة نادرة: مستخدمو الإنترنت يبحثون عن كلمات الأغاني. وقدّرت أن هذه الحالة لا تُمثل سوى 0.01% من التفاعلات. وفي شهادتها، استشهدت بمقال أكاديمي نُشر في مجلة "الإحصائي الأميركي" تبيّن لاحقا أنه غير موجود.
طلب المدعون من المحكمة استدعاء أوليفيا تشين ورفض أقوالها بسبب الإحالة إلى هذا المراجع الزائف. ومع ذلك، منحت المحكمة شركة "أنثروبيك" وقتًا للتحقيق. وقد وصف محامي الشركة الناشئة الحادثة بأنها "خطأ بسيط في الاستشهاد"، وأقرّ بأن أداة "كلود" للذكاء الاصطناعي استُخدمت "لتنسيق ثلاثة مراجع ببليوغرافية على الأقل بشكل صحيح". وفي هذا السياق، اخترع الذكاء الاصطناعي مقالاً وهمياً، مع مؤلفين خاطئين لم يعملوا معًا قط.
تجنب أخطاء الذكاء الاصطناعي
تُسلّط هذه الحادثة الضوء على الانتشار المُقلق للأخطاء الناتجة عن الذكاء الاصطناعي في الإجراءات القانونية، وهي ظاهرة متنامية تُعرّض الشركات لمخاطر جسيمة، لا سيما عندما يعتمد محاموها على هذه الأدوات لجمع المعلومات وصياغة الوثائق القانونية.
يقول برايان جاكسون، مدير الأبحاث في مجموعة Info-Tech Research Group "خلق استخدام الذكاء الاصطناعي نوعًا من الكسل الذي أصبح مصدر قلق في المجال القانوني". ويضيف: "لا ينبغي استخدام أدوات الذكاء الاصطناعي كحل شامل لإنتاج الوثائق اللازمة للملفات القضائية".