خاص

أعلنت شركة جوجل عن إطلاق موسّع لوضع “الذكاء الاصطناعي” (AI Mode) في محرك البحث، ليصبح متاحًا الآن لجميع المستخدمين في الولايات المتحدة دون الحاجة إلى التسجيل في قائمة انتظار.

وتأتي هذه الخطوة بعد فترة تجريبية ناجحة ضمن منصة Google Labs، استخدم خلالها الملايين هذه الميزة وقدّموا تعليقات إيجابية ساعدت في تحسينها.

والنسخة المطورة من AI Mode تقدّم تجربة بحث تفاعلية وأكثر ذكاءً، حيث تتيح للمستخدمين طرح أسئلة دقيقة والحصول على إجابات مدعومة ببطاقات بصرية تفاعلية، تعرض معلومات مثل التقييمات، مواعيد العمل، وآراء العملاء عن المتاجر والمطاعم والصالونات القريبة.

كما يدعم الوضع الآن التسوق الذكي، من خلال نتائج قابلة للشراء تتضمن الأسعار والعروض الترويجية والصور وتفاصيل التوصيل وتوفّر المنتجات في المتاجر القريبة.

وفي خطوة تسعى لتعزيز الراحة وتوفير الوقت، أضافت جوجل خاصية جديدة على نسخة سطح المكتب، تتيح استئناف البحث من حيث توقف المستخدم، عبر لوحة جانبية تتيح مراجعة نتائج البحث السابقة والعودة إليها بسهولة.

كما بدأت جوجل باختبار إظهار “وضع الذكاء الاصطناعي” بشكل مدمج في صفحة نتائج البحث، من خلال تبويب خاص يظهر لدى عدد محدود من المستخدمين كمرحلة أولى، على أن يتم تعميمه لاحقًا بعد تقييم الأداء وتحسين التجربة.

وتستند هذه الميزة إلى قاعدة بيانات تجارية ضخمة تضم أكثر من 45 مليار إدراج لمنتجات وخدمات، يتم تحديث ما يزيد عن 2 مليار منها كل ساعة، لضمان تقديم نتائج دقيقة وفورية.

وتوصي جوجل باستخدام تطبيقها الرسمي على هواتف Android وiOS للاستفادة من التجربة الكاملة، والتي تشمل دعم الاستفسارات متعددة الوسائط.

الخطوة الجديدة من جوجل تأتي في ظل منافسة متزايدة من أدوات الذكاء الاصطناعي الأخرى، مثل أداة التسوق التي أطلقتها ChatGPT مؤخرًا، والتي تقدم للمستخدمين اقتراحات شراء ذكية وشاملة دون أي تكلفة.

ويُعد تسريع طرح AI Mode جزءًا من جهود جوجل المستمرة للحفاظ على ريادتها في مجال البحث الذكي المدعوم بالذكاء الاصطناعي.

المصدر: صحيفة صدى

كلمات دلالية: الذكاء الاصطناعي الولايات المتحدة جوجل الذکاء الاصطناعی

إقرأ أيضاً:

كيف ينتج الذكاء الاصطناعي معلومات خاطئة؟

#سواليف

تخيّل أنك تخوض امتحان تاريخ دون استعداد كافٍ، وتعتمد فقط على الحدس في الإجابة، فتربط “1776” بالثورة الأمريكية و”هبوط القمر” بعام 1969. هذا تقريباً ما تفعله نماذج اللغة الكبيرة (LLMs) مثل ChatGPT: إنها لا تفهم أو تفكر، بل “تخمّن” الكلمة التالية بناءً على أنماط شاهدتها في كميات هائلة من النصوص.

هذه الحقيقة تؤكد قوة #نماذج #اللغة_الكبيرة وحدودها، وهذا يقودنا إلى السؤال الأهم: إذا كانت النماذج بهذه الذكاء، فلماذا لا تزال ترتكب الأخطاء، أو تهلوس الحقائق، أو تظهر تحيزاً؟ لفهم ذلك، علينا التعمق في كيفية تعلمها، وفق “إنتريستينغ إنجينيرنغ”.
كيف تعمل هذه النماذج؟

تُقسّم اللغة إلى وحدات صغيرة (رموز) مثل “wash” و”ing”، وتخصص لكل منها وزناً في شبكة عصبية ضخمة، ثم تعدّل هذه الأوزان باستمرار خلال التدريب لتقليل الأخطاء. بمرور الوقت، تتقن هذه النماذج التعرف على الأنماط، لكنها لا “تعرف” الحقائق، فهي فقط تتوقع ما يبدو صحيحاً.

مقالات ذات صلة 5 أدوات مجانية لمعرفة ما إذا كانت بياناتك مسربة على الإنترنت المظلم 2025/05/11

لماذا تخطئ أو تهلوس؟

لأنها تخمّن. هذا التخمين يؤدي أحياناً إلى “هلوسة” معلومات خاطئة أو مفبركة بثقة، كاختراع مصادر أو استشهادات.

هذه ليست أكاذيب متعمّدة، بل نتيجة لعدم تمييز النموذج بين الصحيح والمزيف.

وفي التطبيقات العملية، يمكن للهلوسة أن تؤدي إلى عواقب وخيمة، وفي البيئات القانونية والأكاديمية والطبية، يمكن للذكاء الاصطناعي اختلاق قوانين ومصادر أو تشخيص الحالات بثقة تامة دون معرفة تاريخ صحة المريض، وهذا يوضح ضرورة مراجعة البشر لأي محتوى ينتجه الذكاء الاصطناعي والتحقق منه، خاصةً في المجالات التي تعدّ فيها الدقة أمراً بالغ الأهمية.
التحيّز والمعرفة القديمة

نظراً لأن النماذج تتعلم من بيانات الإنترنت، فهي معرضة لاكتساب التحيزات الثقافية والجندرية والسياسية المتأصلة في تلك البيانات.

كما أن “معرفتها” مجمّدة زمنياً، فإذا تغير العالم بعد آخر تدريب لها، تصبح استنتاجاتها قديمة.

لماذا يصعب إصلاح هذه الأخطاء؟

يعمل مدربو الذكاء الاصطناعي مع مليارات الاحتمالات، وتدريبهم مرة أخرى من الصفر مكلف من حيث المال والقدرة الحاسوبية، والأسباب متشعبة، منها:

تكلفة تحديث البيانات: تدريب نموذج جديد يتطلب موارد هائلة.
غموض “الصندوق الأسود”: لا يمكن دائماً تفسير لماذا أعطى النموذج استجابة معينة.
محدودية الرقابة البشرية: لا يمكن فحص كل إجابة يخرج بها النموذج.
الحلول المطروحة

وللتغلب على هذه المشكلات، يلجأ المطورون إلى:

التعلّم المعزز بالتغذية الراجعة البشرية (RLHF)، حيث يقيّم البشر مخرجات النموذج لتحسينه.
الذكاء الاصطناعي الدستوري، كما لدى Anthropic، لتدريب النماذج على الالتزام بمبادئ أخلاقية.
مبادرة Superalignment من OpenAI، لتطوير ذكاء اصطناعي يتماشى مع القيم الإنسانية دون إشراف دائم.
قانون الذكاء الاصطناعي في الاتحاد الأوروبي، الذي يضع قواعد صارمة للأنظمة عالية المخاطر.

ما دور المستخدمين؟

#الذكاء_الاصطناعي أداة قوية، لكنه ليس معصوماً. لذا، تظل المراجعة البشرية ضرورية، خاصة في المجالات الحساسة كالقانون والطب والتعليم، فالخطأ الذي يصدر عن الذكاء الاصطناعي، تقع مسؤوليته على البشر، لا على الخوارزميات.

مقالات مشابهة

  • كيف ينتج الذكاء الاصطناعي معلومات خاطئة؟
  • المؤتمر: التشغيل التجريبي للنقل الذكي بالكهرباء يستهدف تعميم التجربة بمختلف المحافظات
  • جيميني تضيف خاصية ذكية لخفض تكاليف تشغيل نماذج الذكاء الاصطناعي
  • في زمن الذكاءِ الاصطناعيِّ والجندرِ الحُرِّ: لماذا يعودُ العشقُ الإلهيُّ إلى الواجهة؟
  • جوجل تدفع 1.4 مليار دولار لتسوية مزاعم جمعها بيانات المستخدمين دون إذن.. ما القصة؟
  • أخبار التكنولوجيا |جوجل تعزز حماية متصفح كروم بنموذج الذكاء الاصطناعي Gemini Nano.. مايكروسوفت تمنع موظفيها من استخدام تطبيق ديب سيك الصيني
  • بابا الفاتيكان يحذّر: الذكاء الاصطناعي تحد للبشرية
  • جوجل تعزز حماية متصفح كروم بنموذج الذكاء الاصطناعي Gemini Nano
  • ولاية تكساس تُجبر جوجل على دفع تعويض بسبب بيانات المستخدمين
  • الذكـاء الاصطناعـي «الخـارق» لـم يولـد بعـد!