«xAI» تُطلق «Grok 3» .. هل يتفوق على «ChatGPT»؟
تاريخ النشر: 19th, February 2025 GMT
كشفت شركة xAI التابعة لإيلون ماسك أمس الثلاثاء عن نموذج الذكاء الاصطناعي الجديد Grok 3، مدعيةً أنه يتفوق على نماذج OpenAI وDeepSeek الصينية بناءً على اختبارات مبكرة شملت الرياضيات، العلوم، والبرمجة.
قفزة هائلة في الأداء قال ماسك خلال عرض توضيحي بثّ مباشرةً على منصة X: “نحن متحمسون للغاية لتقديم Grok 3، الذي نعتقد أنه أكثر كفاءة بعشر مرات من Grok 2، وخلال فترة تطوير قصيرة جدًا.
كما أعلنت الشركة عن إطلاق منتج جديد يُدعى Deep Search، وهو بمثابة "محرك بحث من الجيل القادم".
سيتم إتاحة Grok 3 لمشتركي X المميزين في الولايات المتحدة بدءًا من الثلاثاء، إلى جانب اشتراك منفصل لإصدارات الويب والتطبيق.
خلال مشاركته في القمة العالمية للحكومات في دبي، وصف ماسك النموذج بأنه "ذكي بشكل مخيف"، قائلاً إنه يتفوق على جميع النماذج المنافسة في الاختبارات الداخلية.
أوضح ماسك أن النموذج تم تدريبه على "الكثير من البيانات الاصطناعية"، ويتمتع بقدرة على مراجعة أخطائه لتحقيق اتساق منطقي.
ومع ذلك، أكد ماسك أن النموذج لا يزال في مرحلة تجريبية (Beta)، لذا قد يحتوي على بعض العيوب في البداية، ولكن سيتم تحسينه باستمرار.
كما أعلن أن ميزة المساعد الصوتي للنموذج ستُطرح لاحقًا.
حرب الذكاء الاصطناعي تشتعل.. xAI في مواجهة OpenAI وDeepSeekيُمثل Grok 3 أحدث دخول في سباق الذكاء الاصطناعي التوليدي، حيث تواجه xAI منافسة شرسة من OpenAI، التي أطلقت في سبتمبر 2024 نموذجها المتقدم o1، بقدرات محسنة على الاستدلال وحل المسائل المعقدة، أما DeepSeek الصينية، التي أثارت ضجة بإطلاق نموذج مفتوح المصدر قادر على منافسة o1 باستخدام موارد أقل.
صراع الموارد.. سباق التسلح بالرقائقتعتمد xAI على "Colossus Supercomputer"، الذي كان يضم 100,000 وحدة معالجة رسومية (GPU) من Nvidia.
أعلنت الشركة أنها ضاعفت حجم هذا الحاسوب العملاق لتدريب Grok 3، في خطوة تُظهر مدى احتدام المنافسة.
في المقابل، تواجه DeepSeek تحديات بسبب القيود الأمريكية على تصدير رقائق Nvidia إلى الصين، لكنها أثبتت أن الإبداع يمكن أن يعوض نقص الموارد.
المصدر: صدى البلد
كلمات دلالية: إيلون ماسك المزيد الذکاء الاصطناعی
إقرأ أيضاً:
خلال محاكمة.. الذكاء الاصطناعي يحيل إلى مرجع غير موجود
في محاكمة بين "أنثروبيك" للذكاء الاصطناعي وأصحاب حقوق ملكية فكرية، تضمنت مذكرة قضائية للدفاع عن الشركة الناشئة إشارة إلى مرجع وهمي لا وجود له.
بدأ الذكاء الاصطناعي يغير تدريجيا طريقة العمل في المجال القضائي. فبينما تسهّل هذه الأداة البحث في السوابق القضائية، يجب أن تخضع مخرجاتها للمراقبة بسبب قدرتها على الهلوسة.
وقد برز هذا مؤخرًا في محاكمة بين شركة "أنثروبيك" للذكاء الاصطناعي وشركات موسيقية. في أكتوبر 2023، طلبت شركات موسيقى من القضاة الاتحاديين في ولاية كاليفورنيا حظر استخدام دليلها الموسيقي لتدريب نماذج الذكاء الاصطناعي الخاصة بشركة "أنثروبيك".
رفض القضاة هذا الطلب في مارس 2025، معتبرين أنه لا يوجد دليل على ضرر لا يمكن إصلاحه. بعد ذلك، رفع المدعون دعوى قضائية أخرى تتعلق بانتهاك حقوق الطبع والنشر. تكمن إحدى نقاط الخلاف الرئيسية في هذه القضية في فحص حجم العينة المتفاعلة مع أداة "كلود" للذكاء الاصطناعي التابعة لشركة "أنثروبيك"، لتحديد وتيرة إعادة إنتاج الذكاء الاصطناعي لكلمات الأغاني المحمية أو توليدها.
مرجع وهمي
قدمت أوليفيا تشين، عالمة البيانات في شركة "أنثروبيك"، مذكرة إلى المحكمة تُجادل فيها بأن عينة من مليون تفاعل مستخدم كافية لتقديم "معدل انتشار معقول" لظاهرة نادرة: مستخدمو الإنترنت يبحثون عن كلمات الأغاني. وقدّرت أن هذه الحالة لا تُمثل سوى 0.01% من التفاعلات. وفي شهادتها، استشهدت بمقال أكاديمي نُشر في مجلة "الإحصائي الأميركي" تبيّن لاحقا أنه غير موجود.
طلب المدعون من المحكمة استدعاء أوليفيا تشين ورفض أقوالها بسبب الإحالة إلى هذا المراجع الزائف. ومع ذلك، منحت المحكمة شركة "أنثروبيك" وقتًا للتحقيق. وقد وصف محامي الشركة الناشئة الحادثة بأنها "خطأ بسيط في الاستشهاد"، وأقرّ بأن أداة "كلود" للذكاء الاصطناعي استُخدمت "لتنسيق ثلاثة مراجع ببليوغرافية على الأقل بشكل صحيح". وفي هذا السياق، اخترع الذكاء الاصطناعي مقالاً وهمياً، مع مؤلفين خاطئين لم يعملوا معًا قط.
تجنب أخطاء الذكاء الاصطناعي
تُسلّط هذه الحادثة الضوء على الانتشار المُقلق للأخطاء الناتجة عن الذكاء الاصطناعي في الإجراءات القانونية، وهي ظاهرة متنامية تُعرّض الشركات لمخاطر جسيمة، لا سيما عندما يعتمد محاموها على هذه الأدوات لجمع المعلومات وصياغة الوثائق القانونية.
يقول برايان جاكسون، مدير الأبحاث في مجموعة Info-Tech Research Group "خلق استخدام الذكاء الاصطناعي نوعًا من الكسل الذي أصبح مصدر قلق في المجال القانوني". ويضيف: "لا ينبغي استخدام أدوات الذكاء الاصطناعي كحل شامل لإنتاج الوثائق اللازمة للملفات القضائية".