مايكروسوفت تطلق نموذج الذكاء الاصطناعي O1 مجانًا لجميع مستخدمي «Copilot»
تاريخ النشر: 1st, February 2025 GMT
كشفت شركة مايكروسوفت عن إتاحة نموذج الذكاء الاصطناعي o1 من شركة OpenAI مجانًا لجميع مستخدمي مساعدها «كوبايلوت» (Copilot)، دون الحاجة إلى الاشتراك في خطط مدفوعة مثل «كوبايلوت برو» أو «ChatGPT Plus» التي تبلغ تكلفتها 20 دولارًا شهريًا.
ميزة Think Deeperيُعرف هذا النموذج بميزة Think Deeper، والتي تُمكّن «كوبايلوت» من التعامل مع الأسئلة المعقدة من خلال تحليلها من زوايا متعددة، وتستغرق هذه العملية حوالي 30 ثانية لتقديم إجابة شاملة، وتُعتبر هذه الميزة مفيدة في تقديم حلول خطوة بخطوة لمهام مثل مقارنة الخيارات، كتابة الأكواد البرمجية، أو التخطيط للرحلات الطويلة.
وتم إطلاق ميزة Think Deeper لأول مرة في أكتوبر ضمن Copilot Labs لمشتركي كوبايلوت برو، والآن أصبحت متاحة لجميع المستخدمين دون أي تكلفة إضافية.
وتأتي هذه الخطوة بعد أيام من إطلاق شركة ديب سيك الصينية نموذجًا جديدًا للذكاء الاصطناعي، مما أثار ضجة في وادي السيليكون وأعاد النقاش حول الهيمنة الأمريكية في هذا المجال.
يتوقع أن يؤدي الظهور السريع للمنافسين الصينيين إلى زيادة المخاوف في واشنطن، خاصةً مع استثمار الشركات الأمريكية مليارات الدولارات في تطوير نماذج الذكاء الاصطناعي، بينما تطلق الشركات الصينية نماذج مماثلة بتكاليف أقل بكثير.
تسعى مايكروسوفت إلى تعزيز قدرات كوبايلوت وتقديم تجربة مستخدم أكثر تطورًا وشمولية مع إتاحة نموذج o1 مجانًا، مما يتيح للمستخدمين الاستفادة من إمكانيات الذكاء الاصطناعي المتقدمة دون تكبد تكاليف إضافية.
اقرأ أيضاً«مايكروسوفت» تطرح طرقا جديدة لتسجيل الدخول
تشغيل برامج وتنفيذ المهمات.. «مايكروسوفت» تطور نموذج ذكاء اصطناعي جديد
المصدر: الأسبوع
كلمات دلالية: مايكروسوفت مايكروسوفت اوفيس حساب مايكروسوفت الذکاء الاصطناعی
إقرأ أيضاً:
غوغل تطور البحث الصوتي.. تفاعل ذكي مدعوم بـ«الذكاء الاصطناعي»
أعلنت شركة غوغل عن إطلاق ميزة مبتكرة تحت اسم «Search Live»، تتيح للمستخدمين إجراء محادثات صوتية مباشرة مع محرك البحث عبر «وضع الذكاء الاصطناعي» (AI Mode)، في خطوة تهدف إلى إعادة تعريف تجربة البحث التقليدية وتحويلها إلى تفاعل أكثر حيوية وسلاسة.
تجربة صوتية ذكية في متناول اليد
الميزة متوفرة حالياً لمستخدمي تطبيق غوغل على نظامي «أندرويد» و«iOS» داخل الولايات المتحدة، ضمن إطار تجربة «مختبرات غوغل» (Google Labs)، مع تركيز خاص على تلبية احتياجات المستخدمين الذين يفضلون التفاعل الصوتي أثناء التنقل أو أثناء أداء مهام متعددة دون التوقف عن استخدام أجهزتهم.
كيف تعمل «Search Live»؟
يبدأ المستخدم بالضغط على أيقونة «Live» أسفل شريط البحث، ومن ثم طرح أسئلته صوتياً، ليقوم نموذج الذكاء الاصطناعي بالرد فوراً وبشكل موجز، مع إمكانية متابعة الحوار بنفس السياق دون الحاجة لإعادة صياغة الأسئلة، مما يخلق تجربة تفاعلية مستمرة تشبه التحدث مع مساعد شخصي.
إلى جانب ذلك، تظهر على الشاشة روابط لمصادر موثوقة تمكن المستخدم من التعمق في الموضوع إذا رغب، وتتيح الميزة أيضاً تشغيل المحادثة في الخلفية، مما يسمح بمواصلة التصفح أو استخدام تطبيقات أخرى بحرية دون انقطاع في التواصل الصوتي.
مزايا تقنية متقدمة لتعزيز التفاعل
تعتمد «Search Live» على نسخة مخصصة من نموذج الذكاء الاصطناعي «جيميناي» (Gemini) من غوغل، والذي صُمم لتعزيز دقة وسلاسة التفاعل الصوتي، كما تستفيد الميزة من تقنية «تفرّع الاستعلامات» (Query Fan-out)، التي توسع نطاق النتائج لتشمل مزيجاً من الردود الآلية والبشرية، ما يعزز جودة وعمق المعلومات المقدمة.
آفاق مستقبلية لتجربة بحث متعددة الوسائط
رغم تركيز غوغل الحالي على التفاعل الصوتي، تلمح الشركة إلى خطط تطويرية مستقبلية تتضمن البحث عبر الكاميرا، ما سيوسع تجربة البحث ليشمل وسائط متعددة تمكّن المستخدم من التفاعل مع العالم المحيط بطريقة تشبه التفاعل البشري الطبيعي.
ماذا يعني هذا للمستقبل؟
تشكل «Search Live» خطوة مهمة في مسيرة غوغل لإعادة صياغة مفهوم البحث الإلكتروني، ما يفتح تساؤلات واسعة حول إمكانية أن يكون التفاعل الصوتي الذكي هو المستقبل الجديد للبحث الرقمي في عصر الذكاء الاصطناعي، حيث تصبح المحادثة المباشرة مع محرك البحث جزءاً من روتين الحياة اليومية للمستخدمين حول العالم.