ميزة جديدة من جوجل تغيّر طريقة استخدامك لـ Gemini
تاريخ النشر: 20th, April 2025 GMT
أعلنت شركة جوجل عن إتاحة ميزة "مشاركة الشاشة والكاميرا" مجانًا في تطبيق Gemini Live، وذلك لجميع مستخدمي أجهزة أندرويد، بعد أن كانت مقتصرة على مشتركين محددين في خدمة Gemini Advanced وعلى أجهزة معينة مثل Pixel وGalaxy S.
الميزة الجديدة تمكّن المستخدمين من التفاعل مع المساعد الذكي Gemini بطريقة أكثر واقعية، إذ تتيح له رؤية ما يظهر على الشاشة أو أمام الكاميرا، وبالتالي تقديم مساعدات فورية تتعلق بما يراه.
على سبيل المثال، يمكن لـ Gemini المساعدة في تحليل محتوى شاشة الهاتف، أو التعرف على أشياء يتم تصويرها بالكاميرا، مثل وثائق أو منتجات.
كيف تعمل الميزة؟
- الضغط مطولًا على زر التشغيل لفتح Gemini.
- النقر على زر "Live" في أسفل الشاشة.
- اختيار "مشاركة الشاشة" أو "مشاركة الكاميرا".
- بدء التفاعل مع Gemini حول المحتوى الظاهر.
الميزة تُطرح تدريجيًا لمستخدمي أندرويد بإصدار 10 وما فوق، وتحتاج إلى هاتف يحتوي على RAM لا يقل عن 2 جيجابايت. ومن المتوقع أن تصل إلى معظم الأجهزة خلال الأسابيع المقبلة.
وأكدت جوجل أن الخصوصية محفوظة، حيث لا تُستخدم بيانات المشاركة في تدريب النماذج أو تحسين الخدمات دون موافقة المستخدم. ويتم الاحتفاظ بها فقط في سجل نشاط المستخدم داخل Gemini.
هذه الإضافة تأتي ضمن جهود جوجل لتعزيز تجربة الذكاء الاصطناعي التفاعلي عبر أجهزتها المحمولة، وجعل Gemini منافسًا مباشرًا لتطبيقات المساعدات الذكية الأخرى.
المصدر: صحيفة الاتحاد
كلمات دلالية: جيميني الذكاء الاصطناعي جوجل
إقرأ أيضاً:
وضع الصوت المتقدم.. تشات جي بي تي يتحدث كالبشر
في سباق الذكاء الاصطناعي نحو محاكاة الإنسان، تخطو "أوبن أيه آي" خطوة جديدة تُقرّب الآلة من الصوت البشري بكل تفاصيله.
تحديث جديد لوضع "الصوت المتقدم" في "تشات جي بي تي" لا يضيف فقط تحسينات على النطق والاستجابة، بل يمنح الآلة شيئًا يشبه "الإحساس": نبرة، إيقاع، وتعبير يُحاكي التفاعل البشري الحقيقي.
اقرأ أيضاً...كيف تسأل الذكاء الاصطناعي؟.. 5 مفاتيح لإجابات أدق
من ردود دقيقة وسريعة، إلى تعبيرات عن التعاطف وحتى السخرية، يبدو أن "تشات جي بي تي" لم يعد مجرد نموذج نصي، بل صوت قادر على إجراء محادثات طبيعية وعاطفية… وربما قريبًا، لا يمكن تمييزها عن صوتك أو صوتي.
أعلنت شركة "أوبن أيه آي" عن تحديث كبير لوضع "الصوت المتقدم" (Advanced Voice Mode) في "تشات جي بي تي"، يهدف إلى جعل المحادثات الصوتية أكثر واقعية وطبيعية من أي وقت مضى. التحديث الجديد يعزز من قدرة النموذج على التفاعل الصوتي السلس، مع تعبيرات صوتية تُحاكي المحادثات البشرية الفعلية. بحسب موقع "Neowin" المتخصص في أخبار التكنولوجيا.
سرعة استجابة تُقارب الاستجابة البشرية
تم تقديم وضع الصوت المتقدم لأول مرة مع إطلاق نموذج GPT-4o، والذي يتمتع بقدرات متعددة الوسائط. يمكن للنموذج الآن الرد على المدخلات الصوتية في زمن قدره 232 ميلي ثانية فقط، وبمتوسط 320 ميلي ثانية، وهو ما يوازي تقريبًا سرعة الاستجابة البشرية في الحوارات اليومية.
صوت أكثر طبيعية وثراءً في التعبير
التحديث الجديد يضيف تحسينات نوعية على الصوت، تشمل:نغمة أكثر سلاسة وواقعية وإيقاع منطقي في الردود يشمل التوقفات والشدّة في الكلمات المهمة، مع قدرة أفضل على التعبير عن المشاعر مثل التعاطف أو السخرية
ماينتج تجربة صوتية أشبه بمحادثة مع شخص حقيقي، خصوصًا في المواقف العاطفية أو المعقدة.
الترجمة الصوتية التلقائية تصل إلى "تشات جي بي تي"
الميزة الأبرز في هذا التحديث هي الترجمة الفورية بين اللغات باستخدام الصوت. أصبح بإمكان المستخدم أن يطلب من "تشات جي بي تي" بدء الترجمة، وسيستمر النموذج في الترجمة طوال المحادثة من دون توقف حتى يُطلب منه ذلك. هذه الميزة تقلل من الحاجة إلى تطبيقات الترجمة الصوتية الأخرى وتُسهّل التواصل بين اللغات.
تحديات بالرغم من التقدم
بالرغم من التطويرات الكبيرة، لا تزال هناك بعض التحديات التي أشار إليها فريق"أوبن أيه آي"، منها: انخفاض طفيف في جودة الصوت أحيانًا، خاصة مع تغيّرات مفاجئة في النغمة أو الحدة مع ظهور أصوات غير مقصودة في حالات نادرة، مثل أصوات غير مفهومة أو تشبه الإعلانات أو الموسيقى
أوضحت "أوبن أيه آي" أنها تعمل على تحسين هذه النقاط تدريجيًا ضمن خطتها لتطوير النماذج الصوتية.
التحديث متاح فقط للمستخدمين المدفوعين
حتى الآن، يتوفر هذا التحديث فقط لمشتركي خطط "تشات جي بي تي" المدفوعة (Plus وEnterprise)، ولا يشمل المستخدمين المجانيين.
هل نقترب من محادثات لا يمكن تمييزها عن البشر؟
مع كل تحديث جديد، تقل المسافة بين الصوت البشري وصوت الآلة. "تشات جي بي تي" بات يفهم النبرة، يلتقط الإشارات غير اللفظية، ويستجيب بسرعة وبمشاعر واضحة. المستقبل القريب قد يشهد محادثات يصعب على الإنسان تمييزها عن التفاعل البشري الحقيقي.
ومع هذه القفزة في الصوت، لم يعد السؤال: "هل تتحدث الآلة؟" بل أصبح: "هل ما زلنا نُميز من يتحدث؟"
في ظل هذا التطور، لم يعد الذكاء الاصطناعي يكتفي بأن "يفهم" كلامنا، بل بات قادرًا على "قول" ما يشبهه — بنغمة، وشعور، وتفاعل.
لكن السؤال الذي يفرض نفسه الآن: هل نُطوّر صوتًا ذكيًا لمساعدتنا؟ أم أننا نقترب من خلق نسخة رقمية لا يمكن تمييزها عن الإنسان؟..
التحديث الجديد يقرّبنا من الإجابة… لكنه يفتح أيضًا الباب أمام تساؤلات أعمق حول مستقبل التفاعل بين البشر والآلة.
لمياء الصديق (أبوظبي)