“غوغل” تدافع عن محركها المدعوم بالذكاء الاصطناعي
تاريخ النشر: 28th, May 2024 GMT
يمن مونيتور/اندبندنت عربية
دافعت شركة “غوغل” عن ميزتها الجديدة “أي آي أوفرفيوز” AI Overviews، بعدما أبلغ المستخدمون عن أنها قدمت لهم إجابات غريبة عندما استعانوا بها في الإجابة عن بعض أسئلتهم.
وتسعى هذه الأداة الذكية إلى إيجاد مكان لها إلى جانب النتائج المعتادة التي يقدمها محرك البحث “غوغل”، وذلك باستخدام الذكاء الاصطناعي للإجابة عن أي استفسارات.
ولكن في الأيام الأخيرة، أفاد عدد من مستخدمي “غوغل” أن النظام الذكي الجديد قد حثهم، في إجابات قدمها لهم عن أسئلتهم، على أكل الحجارة، وصنع البيتزا باستخدام الغراء، إضافة إلى أنه طرح مرة أخرى نظرية مؤامرة كاذبة مفادها أن الرئيس الأميركي السابق باراك أوباما مسلم.
وبدا أن بعض إجابات محرك البحث المدعوم بالذكاء الاصطناعي مستقاة من نتائج متوافرة عبر شبكة الإنترنت. مثلاً، النصيحة التي قدمها في شأن استخدام الغراء كي تصبح طبقة الجبن في البيتزا أكثر ذوباناً ومطاطية جاءت من نكتة منشورة على موقع “رديت”.
إلا أن “غوغل” ذكرت أن الأمثلة المذكورة آنفاً، جاءت رداً على طلبات بحث نادرة في طبيعتها، مدعية أن الميزة الذكية تقدم أداءً جيداً بصورة عامة.
وأفاد متحدث باسم الشركة أن “الأمثلة التي رأيناها تعد عموماً أسئلة غير شائعة، وليست تجارب تنطبق على معظم المستخدمين. توفر الغالبية العظمى من إجابات “أي آي أوفرفيوز” معلومات عالية الجودة، مصحوبة بروابط تسمح بالبحث عن ردود أدق وأكثر تفحصاً على الويب.
“لقد أجرينا اختبارات مكثفة قبل إطلاق هذه التجربة الجديدة حرصاً على أن تلبي “أي آي أوفرفيوز” معايير الجودة العالية التي نتسم بها. لقد اتخذنا الإجراءات المناسبة عندما حدثت انتهاكات لسياساتنا، ونستعين أيضاً بهذه الأمثلة المتفرقة بينما نعكف على تعزيز أداء أنظمتنا بصورة عامة”، أضاف المتحدث.
كذلك ذكرت الشركة أنها أضافت أشكالاً من الحماية إلى نظامها الذكي بهدف منع ظهور أي محتوى ضار، موضحة أنها قد أخضعت النظام لعملية تقييم واختبار، وأن “أي آي أوفرفيوز” مصممة لتتوافق مع سياساتها المعمول بها حالياً.
كذلك عملت الشركة أخيراً، وفق “غوغل”، على تحسين النظام كي يكون أكثر كفاءة في تقديم إجابات واقعية على التعليقات.
يبدو أن المشكلات المشار إليها تعزى جزئياً إلى بيانات مستخدمة في إثراء الإجابات، التي ربما تتضمن دعابات أو محتوى آخر يتحول إلى محتوى مضلل عند إعادة استخدامه في الإجابة عن سؤال ما غير السؤال الأصلي. ولكن جزءاً من المشكلة ربما يكون مرده أيضاً إلى قابلية وقوع النماذج اللغوية الكبرى large language models [اختصاراً أل أل أم” LLM وهي نماذج تعليم عميق كبيرة جداً مدربة مسبقاً على كميات مهولة من البيانات] على شاكلة النماذج التي يستخدمها “غوغل”، في ما يسمى “الهلوسة” [وفي هذه الحالة تقدم النماذج إجابات غير صحيحة في الواقع أو غير مرتبطة بالسياق المعطى إنما تتسم بدرجة عالية من الثقة تجعلها تبدو مقنعة في الظاهر].
ونظراً إلى أن تلك النماذج اللغوية الكبرى مدربة باستخدام بيانات لغوية، وليس حقائق فعلية، تراها تنزع إلى تقديم إجابات ربما تكون مصاغة بصورة مقنعة ولكنها تتضمن في الواقع أكاذيب. وقد أشار بعض الخبراء إلى أن هذه المشكلات متأصلة في تلك الأنظمة.
المصدر: يمن مونيتور
كلمات دلالية: غوغل محركات البحث
إقرأ أيضاً:
وزراء صحة كوريا الجنوبية والصين واليابان يعززون التعاون بالذكاء الاصطناعي
اتفق وزراء الصحة في كوريا الجنوبية والصين واليابان على تعزيز التعاون الثلاثي بشأن التغطية الصحية الشاملة والصحة العقلية من خلال الاستفادة بالذكاء الاصطناعي والتكنولوجيات الرقمية، حسبما قالت وزارة الصحة الكورية الجنوبية اليوم الأحد.
وذكرت وكالة يونهاب الكورية الجنوبية للأنباء أنه تم التوصل للاتفاق خلال الاجتماع الـ 18 الثلاثي لوزراء الصحة ، المنعقد في سول لمدة
يومين، ويحضره وزير الصحة الكوري الجنوبي جيونج إيون كيونج ووزير الصحة اليابانية كينشيرو أوينو والمدير العام للتعاون الدولي بالهيئة الصحية الوطنية الصينية فينج يونج.
واتفق المسؤولون خلال الاجتماع على بذل الجهود المشتركة لتوسيع نطاق الحصول على الخدمات الطبية الأساسية من خلال استخدام الذكاء الاصطناعي والتكنولوجيا الرقمية وتبادل طرق استخدام التكنولوجيا وفقا للبنية التحتية والأطر المؤسسية لكل دولة.
وفيما يتعلق بالصحة العقلية، اتفقت الدول الثلاثة على إعطاء الأولوية لاستراتيجيات الوقاية من الانتحار والرصد المبكر للفئات الأكثر عرضة
للخطر وأنظمة التدخل الملائمة من خلال توسيع استخدام الأدوات الرقمية.