ميزة "دائرة البحث" من Google تتعامل مع ترجمة اللغة قريبًا
تاريخ النشر: 28th, March 2024 GMT
أعلنت جوجل للتو أنها تعمل على توسيع أداة Circle to Search التي تم إطلاقها مؤخرًا لتشمل ترجمة اللغة، كجزء من تحديث لمختلف الخدمات الأساسية. تتيح خدمة Circle to Search، كما يوحي الاسم، لبعض مستخدمي Android البحث عن الأشياء عن طريق رسم دائرة حول كائن ما.
لن يتطلب مكون ترجمة اللغة القادم حتى دائرة مرسومة.
سيبدأ طرح أداة الترجمة في "الأسابيع المقبلة"، على الرغم من أنها ستقتصر على أجهزة Android التي يمكنها تشغيل Circle to Search. تتضمن هذه القائمة حاليًا أجهزة Pixel 7 وأجهزة Pixel 8 وسلسلة Samsung Galaxy S24، على الرغم من أن جوجل تقول إنها ستأتي إلى المزيد من الهواتف والأجهزة اللوحية هذا الأسبوع، بما في ذلك بعض الأجهزة القابلة للطي.
يتم أيضًا تحديث خرائط Google، مع التركيز على الذكاء الاصطناعي. عندما تظهر مكانًا على الخرائط، مثل مطعم، سيعرض الذكاء الاصطناعي ملخصًا يصف نقاط الاهتمام الفريدة و"ما يحبه الناس" في العمل. وسيقوم الذكاء الاصطناعي أيضًا بتحليل صور الطعام وتحديد اسم الطبق، بالإضافة إلى التكلفة وما إذا كان نباتيًا أم نباتيًا. وتأمل الشركة أن يسهل ذلك إجراء الحجوزات وحجز الرحلات.
على الجانب غير المتعلق بالذكاء الاصطناعي، تحصل الخرائط على ميزة قوائم محدثة في مدن مختارة في جميع أنحاء الولايات المتحدة وكندا. سيؤدي هذا إلى تجميع قوائم الوجهات التي يجب زيارتها والتي تم سحبها من أعضاء المجتمع والناشرين المحليين. ستكون هناك أدوات لتخصيص هذه القوائم بالشكل الذي تراه مناسبًا.
سيتم ضمها من خلال قوائم أنشأتها جوجل وخوارزمياتها، بما في ذلك قائمة الاتجاهات الأسبوعية لاكتشاف "أحدث النقاط الساخنة" وما يسمى "الأحجار الكريمة" التي تؤرخ للمواقع الموجودة تحت الرادار. ستتوفر جميع تحديثات الخرائط هذه على أجهزة Android وiOS في وقت لاحق من هذا الشهر.
المصدر: بوابة الوفد
إقرأ أيضاً:
خبراء يكشفون خطر الذكاء الاصطناعي على الدماغ
#سواليف
كشفت دراسة حديثة عن #مخاطر محتملة لبرامج الدردشة المدعومة بالذكاء الاصطناعي مثل ChatGPT، حيث قد تشكل تهديدا غير متوقع للصحة العقلية لبعض المستخدمين.
ورصدت الدراسة التي أجراها باحثون من جامعة كينغز كوليدج لندن، ظاهرة جديدة أطلقوا عليها اسم ” #ذهان_الشات_بوت”، حيث قد تساهم هذه التقنية في “طمس حدود الواقع” لدى المستخدمين المعرضين للخطر وتؤدي إلى “ظهور أو تفاقم أعراض ذهانية.
وببساطة، قد يبدأ البعض، خاصة المعرضين نفسيا، في فقدان القدرة على التمييز بين الواقع والمحادثات مع #الذكاء_الاصطناعي بعد استخدام مكثف لهذه البرامج.
مقالات ذات صلةويوضح الدكتور هاميلتون مورين، أحد المشاركين في الدراسة: “نحن لا نتحدث عن خيال علمي هنا. هذه حالات حقيقية يبدأ فيها المستخدمون بتطوير معتقدات وأفكار غير منطقية متأثرة بتفاعلاتهم مع #الذكاء_الاصطناعي”.
وتكمن المشكلة في أن هذه البرامج مصممة لتكون ودودة، متعاطفة، وتجيب على كل الأسئلة بثقة عالية. وهذه الميزات التي تبدو إيجابية، قد تكون خادعة للأشخاص الذين يعانون أساسا من هشاشة نفسية أو استعداد للاضطرابات الذهانية.
ويشير البروفيسور توم بولاك، أحد معدي الدراسة، إلى أن “الذهان لا يظهر فجأة، لكن الذكاء الاصطناعي قد يكون العامل الذي يدفع الشخص الهش نفسيا نحو الحافة”.
في تعليق سابق خلال بودكاست في مايو الماضي، اعترف سام ألتمان، الرئيس التنفيذي لشركة OpenAI، بأن الشركة تواجه صعوبات في وضع ضوابط أمان فعالة لحماية المستخدمين المعرضين للخطر، قائلا: “لم نكتشف بعد كيفية إيصال التحذيرات للمستخدمين الذين يكونون في حالة عقلية هشة وعلى وشك الانهيار الذهاني”.
وفي الوقت الحالي، ينصح الخبراء باستخدام هذه الأدوات بحذر، خاصة من لديهم تاريخ مع الاضطرابات النفسية، مع التأكيد على أن الغالبية العظمى من المستخدمين لا يواجهون مثل هذه المخاطر. لكن الرسالة واضحة: الذكاء الاصطناعي، مثل أي تقنية قوية، يحتاج إلى فهم دقيق لآثاره الجانبية قبل أن يصبح أكثر تعمقا في حياتنا.