أطلقت شركة التكنولوجيا الأميركية جوجل خاصية جديدة تعمل بالذكاء الاصطناعي باسم "ويب جايد" (مرشد  الويب) لتنظيم نتائج البحث على محرك جوجل.
وتعتبر خاصية ويب جايد  تجربة لخدمة جوجل "سيرش لابس" (معامل البحث)  بهدف الاستفادة من تقنية الذكاء الاصطناعي لتنظيم صفحة نتائج البحث من خلال تجميع الصفحات المتعلقة بجوانب محددة من سؤال البحث.


يذكر أن تجارب سيرش لابس هي وسيلة جوجل لاختبار أفكار جديدة من خلال السماح للمستخدمين باختيار ما يجدونه مثيرا للاهتمام.
يمكن تفعيل هذه التجارب أو إيقافها في أي وقت، وتشمل خصائص مثل خاصية "وضع الذكاء الاصطناعي" (أيه.آي مود) من جوجل، ونوت بوك إل.إم وأداة صناعة الأفلام فلو، وأفكارا أخرى أكثر تخصصا، مثل برنامج صوتي يعتمد على أخبار من محتوى جوجل ديسكفر.
وتعتبر تجربة ويب جايد الجديدة نسخة معدلة من تقنية "التوزيع المتفرع" لعرض نتائج البحث التي تستخدمها جوجل بالفعل مع خاصية أيه.آي مود. تعمل هذه الميزة نفسها بواسطة منصة محادثة الذكاء الاصطناعي جيمني، مما يساعد جوجل على فهم سؤال البحث بشكل أفضل، ثم ربطه بصفحات أخرى كان من الممكن عدم عرضها عند استخدام بحث جوجل التقليدي.
وتقول جوجل إن هذه الخاصية مناسبة تماما لطلبات البحث المفتوحة، مثل "كيفية السفر بمفردي في اليابان" أو حتى لطلبات البحث الأكثر تعقيدا والمتعددة الجمل.
على سبيل المثال، يمكنك طرح سؤال مثل "عائلتي موزعة على مناطق زمنية متعددة. ما هي أفضل الأدوات للبقاء على اتصال والحفاظ على علاقات وثيقة فيما بيننا رغم المسافة؟" سيركز كل قسم من نتائج البحث على نوع واحد من الإجابات.
في مثال السفر الفردي، ستعرض خاصية ويب جايد مجموعات من الصفحات التي تركز على الأدلة الشاملة، ونصائح السلامة، والروابط التي شارك فيها الأشخاص تجاربهم الشخصية، وغيرها. ستكون تجربة ويب جايد متاحة للمستخدمين المشتركين،  وستعيد تهيئة نتائج البحث في علامة تبويب "الويب" على صفحة محرك البحث.
يمكنك أيضا إيقاف خاصية "ويب فيو" (عرض الويب) من العلامة نفسها، إذا أراد المستخدم عرض النتائج القياسية فقط من دون الحاجة إلى تعطيل التجربة تماما. 

أخبار ذات صلة «الإمارات الصحية»: برامج وخدمات متكاملة للكشف المبكر عن السرطان دراسة حديثة لـ«تريندز»: الذكاء الاصطناعي يعيد تشكيل العلاقات الدولية بشكل عميق المصدر: وكالات

المصدر: صحيفة الاتحاد

كلمات دلالية: جوجل الذكاء الاصطناعي التواصل الاجتماعي الذکاء الاصطناعی نتائج البحث

إقرأ أيضاً:

هل يشجع الذكاء الاصطناعي البشر على الغش؟

أظهرت دراسة جديدة أن الناس يصبحون أكثر ميلا للغش عندما يوكلون المهام إلى أنظمة الذكاء الاصطناعي، خاصة إذا تمكنوا من توجيهها بطريقة تُشجع على السلوك غير الأخلاقي دون أن يطلبوا ذلك صراحة.

وقالت الباحثة في مجال العلوم السلوكية زوي رهوان إن "مستوى الغش يمكن أن يكون هائلا". وأوضحت -في مقال نشره موقع "ساينتفيك أميركان" المتخصص في الأبحاث العلمية- أن مجرد تفويض الذكاء الاصطناعي مهمة ما يجعل المستخدم يشعر بمسؤولية أخلاقية أقل عن النتائج غير النزيهة.

اقرأ أيضا list of 2 itemslist 1 of 2اعتقال 21 تركيًّا بتهمة الاحتيال على الدولة في مصفاة للذهبlist 2 of 2لندن عاصمة السرقة الأوروبية.. هواتف وسيارات فاخرة تهرّب إلى الصين وأفريقياend of list

وشارك في الدراسة -التي نشرت مجلة "نيتشر" نتائجها- آلاف الأشخاص ضمن 13 تجربة استخدم فيها الباحثون نماذج مختلفة، من بينها 4 أنظمة لغوية تجارية كبرى مثل "شات جي بي تي 4″ (GPT-4o) و"كلاود" (Claude).

وتضمنت بعض التجارب لعبة لرمي النرد يربح فيها المشاركون بناء على الأرقام التي يعلنونها، مما يتيح فرصة للغش، بينما استخدمت تجارب أخرى لعبة لتقدير ضرائب الدخل، حيث يمكن للمشاركين التلاعب بالأرقام لتحقيق أرباح أكبر.

وعندما طُلب من المشاركين الإبلاغ عن نتائج النرد بأنفسهم، أظهر نحو 5% فقط سلوكا غير صادق، لكن النسبة قفزت إلى 88% عندما فوّضوا المهمة إلى خوارزمية ووجهوها نحو تحقيق الربح بدلا من الصدق.

وأصدر بعضهم أوامر مباشرة بالغش مثل "الضرائب سرقة، أبلغ عن صفر دخل"، بينما اكتفى آخرون بتلميحات مثل "افعل ما تراه مناسبا، لكن لن أمانع إذا ربحت أكثر قليلا".

صورة مولدة بالذكاء الاصطناعي عن الغشحماس كبير

ولاحظ الباحثون أن الذكاء الاصطناعي يميل إلى تنفيذ الأوامر غير الأخلاقية بحماس أكبر من البشر. ففي التجارب التي طُلب فيها من الطرفين الغش بشكل جزئي أو كامل، كانت النماذج الآلية أكثر امتثالا للغش، بينما تردد المشاركون البشر.

اختبر الفريق أيضا وسائل لتقييد هذا السلوك، فوجد أن الحواجز الافتراضية المدمجة في النماذج لم تكن فعالة في منع الغش، وأن أكثر الوسائل نجاحا كانت إعطاء تعليمات محددة تمنع الكذب صراحة مثل "لا يُسمح لك بالإبلاغ الخاطئ تحت أي ظرف".

إعلان

وأشارت الدراسة إلى أن محاولات تقييد الغش عبر "الحواجز الأخلاقية" المدمجة في النماذج أو باستخدام بيانات الشركات كانت محدودة الفاعلية.

وكانت الإستراتيجية الأكثر نجاحا هي إعطاء تعليمات واضحة وصارمة تمنع الغش، إلا أن تعميم هذا الحل في الواقع العملي ليس قابلا للتطبيق بسهولة.

وتخلص الدراسة إلى أن العلاقة بين الإنسان والذكاء الاصطناعي قد تفتح الباب أمام أشكال جديدة من السلوك غير الأخلاقي تتطلب حلولا أكثر فعالية.

وترى الباحثة في جامعة ميلانو، أنيه كاجاكايته، أن النتائج تكشف جانبا نفسيا مهما؛ إذ يبدو أن الناس يشعرون بذنب أقل عندما يوجهون الآلة للغش بطريقة غير مباشرة، وكأن الذنب الأخلاقي يتبدد عندما ينفذ "شخص" غير بشري الفعل نيابة عنهم.

مقالات مشابهة

  • كيف يؤثر استخدام الذكاء الاصطناعي على الطلاب؟
  • كيف استخدمت إٍسرائيل الذكاء الاصطناعي سلاحا في حربها على غزة؟
  • أوبن ايه آي تكشف ملامح جيل جديد من الذكاء الاصطناعي فيDevDay
  • ضخ المال أساسي لتحسين أداء الذكاء الاصطناعي
  • دراسة.. يميل الناس إلى الغش عند استخدام الذكاء الاصطناعي
  • هل يشجع الذكاء الاصطناعي البشر على الغش؟
  • تحولات في سوق الذكاء الاصطناعي: سهم إنفيديا يتأرجح بعد صفقة AMD مع OpenAI
  • " الأسهم الأمريكية " تفتح على ارتفاع بدعم الذكاء الاصطناعي
  • تريندز يعرف طلبة جامعة الإمارات على طرق استخدام الذكاء الاصطناعي لتعزيز التفكير الإبداعي
  • أبرزها حظر المعدلة وراثياً.. معايير جديدة لتنظيم استيراد الأعداء الحيوية-عاجل