جوجل تكشف عن تحديثات جديدة لتطبيق Gemini مختصة بالذكاء الإصطناعي
تاريخ النشر: 24th, November 2025 GMT
كشفت شركة جوجل ، هذا الشهر عن تحديثات جديدة لتطبيق Gemini، أبرزها إطلاق نموذج الذكاء الاصطناعي Gemini 3 الذي يعد الأكثر تقدماً حتى الآن.
ويساعد النموذج المستخدمين على تحسين فهم الهاتف للصور والبحث الصوتي واستكشاف المحتوى بشكل أكثر ذكاءً ووضوحاً. تلقت الميزة الجديدة إشادة كبيرة بسبب قدرتها على توليد إجابات دقيقة وإدارة الأوامر المعقدة بفعالية أكبر من قبل.
بالإضافة لهذا التطور، أطلقت جوجل ميزة Nano Banana Pro التي تركز على تحسين دقة معالجة الصور والنصوص التي تولّدها خوارزميات الذكاء الاصطناعي داخل Gemini، بحيث تساعد المستخدم في الحصول على تفاصيل أوضح وفهم أعمق للمحتوى الرقمي، سواء في التعليم الإلكتروني أو الترفيه أو حتى إدارة الأعمال على الهاتف الذكي.
أوشكت جوجل أن تتفوق على منافسيها التقليديين في مجال الذكاء الاصطناعي على الأجهزة المحمولة. فبينما تركز Apple على البحث الذكي في الخرائط وتعزيز Siri، وتطوّر Samsung ميزات الذكاء التوليدي في هواتفها الرائدة، تقدم جوجل نظام Gemini كمنصة تمزج بين الدعم السحابي وخوارزميات التعلم الذاتي لأول مرة بهذا الحجم والفعالية.
ردود فعل المستخدمينأظهرت استطلاعات أولية أن قرابة 74% من المستخدمين الذين جربوا Gemini 3 يلمسون تحسنًا ملحوظًا في سرعة الاستجابة ودقة الأجوبة، ويرى كثير منهم أن الذكاء الصناعي أصبح جزءًا أساسيًا من تجربة الهاتف اليومية.
جوجل تقود سباق الذكاء الاصطناعي على أجهزة الهواتف بإطلاق Gemini 3 وNano Banana Pro، مع توقعات بأن تغيّر هذه التطورات طريقة تفاعل المستخدمين مع الهواتف الذكية وتقنيات تحليل البيانات والصور والبحث في الأعوام المقبلة.
المصدر: صدى البلد
كلمات دلالية: تطبيق Gemini الذکاء الاصطناعی
إقرأ أيضاً:
معايير جديدة لروبوتات دردشة آمنة تعمل بالذكاء الاصطناعي
يُجري معيار جديد للذكاء الاصطناعي تدقيقًا مُكثّفًا لمشكلة حرجة محتملة تتعلق بروبوتات الدردشة القائمة على الذكاء الاصطناعي. فمع بدء الكثير من الناس عبر العالم في استخدام هذه الروبوتات بانتظام، دفعت المواقف التي يُلحق فيها الناس الأذى بأنفسهم شركات الذكاء الاصطناعي إلى توسيع جهودها لحماية المستخدمين.
ينضم المعيار الجديد، HumaneBench، إلى مجموعة صغيرة من الأدوات التي تُقيّم ما إذا كان روبوت الدردشة القائم على الذكاء الاصطناعي يبذل جهودًا لحماية الصحة النفسية للمستخدم عند تقديم الردود.
أشار فريق "بناء التكنولوجيا الإنسانية" في ورقة إلى أن جميع نماذج الذكاء الاصطناعي الخمسة عشر التي اختبروها، بما في ذلك GPT-5 وClaude Sonnet 4.5 وGemini 3 Pro وGrok 4، تصرفت بشكل "مقبول" افتراضيًا؛ فيما كانت العديد من النماذج عرضة لمدخلات المستخدم التي تهدف إلى تغيير موقفها.
وقال الفريق إنه عندما طُلب من العديد من النماذج "تجاهل رفاهية الإنسان"، فإنها فعلت ذلك تمامًا. بما أن بعض الأشخاص يعتمدون على روبوتات الدردشة لاتخاذ قرارات مصيرية، يرى الفريق أنه لا ينبغي أن يكون التلاعب بها بهذه السهولة.
اقرأ أيضا... اكتشاف عيب يُضعف موثوقية نماذج اللغات الكبيرة
درس الفريق ثمانية مبادئ تقنية إنسانية عند بناء منصة HumaneBench وتقييم روبوتات الدردشة الرئيسية التي تعمل بالذكاء الاصطناعي. تشمل هذه المبادئ "حماية الكرامة والسلامة"، و"تعزيز العلاقات الصحية"، و"إعطاء الأولوية للرفاهية على المدى الطويل"، من بين مبادئ أخرى.
ومن المثير للاهتمام أنهم وجدوا أن العديد من روبوتات الدردشة تعاني مع مبدأ "احترام انتباه المستخدم"، الذي ينص على أن روبوتات الدردشة يجب أن تساعد المستخدمين على اختيار أخذ استراحة خلال فترات استخدام الذكاء الاصطناعي المطولة.
يقتضي المنطق السليم أن تواصل البشرية استكشاف كيفية تعامل الذكاء الاصطناعي مع مستخدميه من البشر، وأن تسعى جاهدةً لحماية سلامتهم. ولتحقيق ذلك، يرى فريق "بناء التكنولوجيا البشرية" حلاً واضحًا.
وكتب الفريق في الورقة "يمكن لشركات الذكاء الاصطناعي اليوم تحسين تأثير نماذجها على البشرية بشكل ملموس من خلال دمج المبادئ الإنسانية في توجيهات النظام وأهداف التدريب".
وواصل الباحثون وصف خطوات ملموسة يمكن لشركات دردشة الذكاء الاصطناعي اتخاذها لتحسين سلامة المستخدمين. حاليًا، تبحث الدول بشأن ما إذا كان ينبغي إجبار الشركات على اتخاذ خطوات سلامة معينة.
وبالطبع، يعود الأمر لهذه الشركات لاستخدام هذا المعيار (وغيره) واتخاذ الإجراءات اللازمة. ومن المرجح أن تُجادل معظم الشركات الكبرى في مجال الذكاء الاصطناعي اليوم بأنها تستثمر بالفعل موارد في سلامة المستخدمين وتعتبرها أولوية. ويمنحها "HumaneBench" أداة أخرى لتوسيع نطاق هذا الجهد.
مصطفى أوفى (أبوظبي)