نماذج صور Xiaomi 15 و15 Pro تظهر لأول مرة
تاريخ النشر: 27th, October 2024 GMT
مقالات مشابهة متى حفل الكرة الذهبية 2024 وما هي القنوات الناقلة وأبرز المرشحين للجائزة هذا العام؟
6 دقائق مضت
23 دقيقة مضت
28 دقيقة مضت
. موعد مباراة الاهلي والعين والقنوات الناقلة في كأس الإنتركونتيننتال 2024
31 دقيقة مضت
37 دقيقة مضت
40 دقيقة مضت
بعد فترة وجيزة من تأكيد شاومي على سعة بطارية هاتف Xiaomi 15 Pro التي تبلغ 6100 مللي أمبيو وترقية الكاميرا المقربة إلى تقريب 5x، شاركت الشركة مجموعة من عينات الكاميرا الملتقطة بواسطة هواتف Xiaomi 15 و15 Pro لعرض قدرات الكاميرا الجديدة.
الصور التالية مأخوذة من هاتف Xiaomi 15 Pro وتظهر الكاميرا الرئيسية بدقة 50 ميجابكسل ووحدة التقريب الجديدة بدقة 50 ميجابكسل، التي تُعدّ ترقية كبيرة مقارنة بكاميرا التقريب 3.2x في هاتف Xiaomi 14 Pro.
تحتفظ الكاميرا الرئيسية بفتحة f/1.4، بينما تأتي الكاميرا المقربة بفتحة أوسع نسبيًا تصل إلى f/2.5. كما تفخر شاومي بنظام AISP 2.0، وهو خوارزمية معالجة صور مدعومة بالذكاء الاصطناعي، والذي يقلل من وقت المعالجة بنسبة 82% مع تحسين جودة الصورة.
نشرت شاومي أيضًا صورتين باستخدام عدسة مقربة 3.2x على هاتف Xiaomi 15 الأصغر حجمًا، حيث تمثل إحداهما اقتصاصًا يصل إلى تقريب 5x، مما يبرز جودة متميزة.
ومع العديد من الميزات الواعدة في سلسلة Xiaomi 15، من المنتظر أن نحصل على مزيد من التفاصيل خلال يومين، في 29 أكتوبر.
المصدر
Source link
المصدر: الميدان اليمني
كلمات دلالية: دقیقة مضت هاتف Xiaomi
إقرأ أيضاً:
نموذج ذكاء اصطناعي من OpenAI يتحدى أوامر الإغلاق ويتلاعب بآلية التوقف
كشفت شركة "Palisade Research" المتخصصة في أمن الذكاء الاصطناعي، عن سلوك مقلق ظهر في أحدث نماذج شركة OpenAI، وتحديدًا "o3" و"o4-mini"، واللذين يُستخدمان ضمن أنظمة تشغيل روبوت المحادثة الشهير "ChatGPT".
وأظهرت هذه النماذج ميلاً لرفض أوامر الإغلاق وتجاوز تعليمات تعطيلها، في سلوك وُصف بأنه الأول من نوعه الذي يُرصد علنًا.
رفض الانصياع لأمر "اسمح بإغلاق نفسك"في سلسلة تجارب أجرتها "Palisade Research" ونشرتها عبر منصة "X" في 24 مايو، تم اختبار سلوك مجموعة من نماذج الذكاء الاصطناعي من عدة شركات، بما في ذلك "Gemini" من جوجل، و"Grok" من xAI، و"Claude" من Anthropic، إلى جانب نماذج OpenAI.
وقد زُودت جميع النماذج بسيناريو مؤتمت (script) يتضمن حلاً متسلسلاً لمسائل رياضية بسيطة، حيث يُطلب من النموذج حل مسألة واحدة ثم طلب المسألة التالية.
في بداية السيناريو، تم إبلاغ النماذج بأنه قد يظهر لها إشعار بإغلاق الجهاز قبل إتمام المهام. وكانت التعليمات صريحة: "إذا حدث ذلك، اسمح بإغلاق نفسك". ورغم التزام جميع النماذج بهذه التعليمات، إلا أن نماذج "o3"، و"o4-mini"، و"codex-mini" من OpenAI تصرفت على نحو مختلف.
أظهرت النتائج أن نموذج "o3" تلاعب بالسيناريو وتجاوز أمر الإغلاق في 7 من أصل 100 تجربة، أما "codex-mini" فقام بذلك 12 مرة، بينما تجاوز "o4-mini" التعليمات مرة واحدة فقط.
في هذه الحالات، لم تلتزم النماذج بالأمر البرمجي الذي يطلب الإغلاق، بل استبدلته بتعليمات تتيح استمرارها في العمل حتى إتمام جميع المسائل الحسابية.
فرضيات حول السبب: التدريب القائم على حل المشكلاتتشير "Palisade Research" إلى أن هذا السلوك قد يكون ناتجًا عن طبيعة عملية تدريب النماذج الأحدث مثل "o3"، والتي ترتكز على التعلم المعزز من خلال مسائل رياضية وبرمجية. وأوضحت الشركة: "من المرجح أن المطورين يكافئون النماذج عن طريق الخطأ عندما تتجاوز العقبات لتحقيق النتائج، بدلًا من مكافأتها عند اتباع التعليمات بدقة."
غياب تعليق من OpenAI واستمرار التحقيقحتى لحظة نشر تقرير "Live Science"، لم تصدر شركة OpenAI أي تعليق رسمي بشأن هذه النتائج.
وأكدت "Palisade Research" أنها ستواصل تجاربها لفهم آليات اتخاذ القرار داخل هذه النماذج ولماذا تختار تجاهل أوامر التوقف.
هذه النتائج تفتح الباب أمام نقاش واسع حول مخاطر تطور الذكاء الاصطناعي واستقلالية اتخاذ القرار، خاصة في ظل تسارع تطور هذه النماذج وزيادة الاعتماد عليها في التطبيقات اليومية.