أقر الرئيس التنفيذي لشركة آبل، تيم كوك، خلال مكالمة الأرباح الخاصة بالربع المالي الثاني من عام 2025، بتأجيل إطلاق الميزات الجديدة المرتبطة بتقنية "Apple Intelligence" في مساعد سيري، مؤكداً أن الشركة تحتاج إلى مزيد من الوقت لضمان تحقيق هذه الميزات لمعايير الجودة الصارمة التي تعتمدها آبل.

وقال كوك:"فيما يتعلق بميزات سيري الشخصية التي أعلنا عنها، نحتاج إلى المزيد من الوقت لإنهاء العمل عليها حتى ترتقي لمستوى الجودة الذي نطمح إليه.

نحن نحرز تقدماً، ونتطلع لإيصال هذه الميزات إلى أيدي المستخدمين في المستقبل".

آبل : المساعد الصوتي الذكي Siri الجديد ما زال يحتاج إلى وقت إضافيEpic Games تحقق انتصارا كبيرا .. حكم قضائي يجبر آبل على تغيير سياساتهامبيعات آيفون تتراجع.. آبل تواجه اختبارا صعبا في 2025تنافس آبل ..أفضل ساعات ذكية في الأسواق في 2025 وبسعر معقولآبل تقلب موازين الذكاء الاصطناعي.. كيف سيؤثر ذلك على سيري وأيفونك القادم؟كيف خسرت آبل عرش الذكاء الاصطناعي لصالح ميتا؟سامسونج تعلن الحرب على آبل.. S25 Edge يسبق iPhone 17 Air بخطوة كبيرةآبل تخطط لتجميع هواتف آيفون الأمريكية في الهند بدلا من الصينالمواصفات المتوقعة لجهاز AirTag 2 القادم من آبل الميزات الشخصية الجديدة في سيري

وكانت آبل قد كشفت لأول مرة عن الميزات الشخصية الجديدة في سيري خلال مؤتمر المطورين السنوي WWDC 2024، حيث أشارت التوقعات إلى أنها ستُطرح ضمن تحديث لنظام iOS 18. 

إلا أن الشركة أعلنت في وقت لاحق عن تأجيل الإطلاق، موضحة أن المزيد من الوقت مطلوب لإتمام عمليات التطوير.

ميزات Apple Intelligence

حتى الآن، بات من المرجح أن يتم ترحيل ميزات "Apple Intelligence" إلى نظام iOS 19، وسط غموض حول ما إذا كانت ستصدر ضمن النسخة الأولى من النظام أم سيتم تأجيلها إلى تحديث لاحق،  وتشير بعض التقديرات إلى إمكانية تأجيل الإطلاق حتى عام 2026.

وتزامناً مع هذا التأخير، أجرت آبل تغييرات داخلية على مستوى قيادة مشروع سيري، حيث تم استبعاد رئيس قسم الذكاء الاصطناعي جون جياناندريا من قيادة المشروع، لتسند المهمة إلى مايك روكويل، الذي أشرف سابقاً على تطوير نظارة Vision Pro.

طباعة شارك آبل Apple Intelligence شركة آبل

المصدر: صدى البلد

كلمات دلالية: آبل شركة آبل الذکاء الاصطناعی

إقرأ أيضاً:

هل يشجع الذكاء الاصطناعي البشر على الغش؟

أظهرت دراسة جديدة أن الناس يصبحون أكثر ميلا للغش عندما يوكلون المهام إلى أنظمة الذكاء الاصطناعي، خاصة إذا تمكنوا من توجيهها بطريقة تُشجع على السلوك غير الأخلاقي دون أن يطلبوا ذلك صراحة.

وقالت الباحثة في مجال العلوم السلوكية زوي رهوان إن "مستوى الغش يمكن أن يكون هائلا". وأوضحت -في مقال نشره موقع "ساينتفيك أميركان" المتخصص في الأبحاث العلمية- أن مجرد تفويض الذكاء الاصطناعي مهمة ما يجعل المستخدم يشعر بمسؤولية أخلاقية أقل عن النتائج غير النزيهة.

اقرأ أيضا list of 2 itemslist 1 of 2اعتقال 21 تركيًّا بتهمة الاحتيال على الدولة في مصفاة للذهبlist 2 of 2لندن عاصمة السرقة الأوروبية.. هواتف وسيارات فاخرة تهرّب إلى الصين وأفريقياend of list

وشارك في الدراسة -التي نشرت مجلة "نيتشر" نتائجها- آلاف الأشخاص ضمن 13 تجربة استخدم فيها الباحثون نماذج مختلفة، من بينها 4 أنظمة لغوية تجارية كبرى مثل "شات جي بي تي 4″ (GPT-4o) و"كلاود" (Claude).

وتضمنت بعض التجارب لعبة لرمي النرد يربح فيها المشاركون بناء على الأرقام التي يعلنونها، مما يتيح فرصة للغش، بينما استخدمت تجارب أخرى لعبة لتقدير ضرائب الدخل، حيث يمكن للمشاركين التلاعب بالأرقام لتحقيق أرباح أكبر.

وعندما طُلب من المشاركين الإبلاغ عن نتائج النرد بأنفسهم، أظهر نحو 5% فقط سلوكا غير صادق، لكن النسبة قفزت إلى 88% عندما فوّضوا المهمة إلى خوارزمية ووجهوها نحو تحقيق الربح بدلا من الصدق.

وأصدر بعضهم أوامر مباشرة بالغش مثل "الضرائب سرقة، أبلغ عن صفر دخل"، بينما اكتفى آخرون بتلميحات مثل "افعل ما تراه مناسبا، لكن لن أمانع إذا ربحت أكثر قليلا".

صورة مولدة بالذكاء الاصطناعي عن الغشحماس كبير

ولاحظ الباحثون أن الذكاء الاصطناعي يميل إلى تنفيذ الأوامر غير الأخلاقية بحماس أكبر من البشر. ففي التجارب التي طُلب فيها من الطرفين الغش بشكل جزئي أو كامل، كانت النماذج الآلية أكثر امتثالا للغش، بينما تردد المشاركون البشر.

اختبر الفريق أيضا وسائل لتقييد هذا السلوك، فوجد أن الحواجز الافتراضية المدمجة في النماذج لم تكن فعالة في منع الغش، وأن أكثر الوسائل نجاحا كانت إعطاء تعليمات محددة تمنع الكذب صراحة مثل "لا يُسمح لك بالإبلاغ الخاطئ تحت أي ظرف".

إعلان

وأشارت الدراسة إلى أن محاولات تقييد الغش عبر "الحواجز الأخلاقية" المدمجة في النماذج أو باستخدام بيانات الشركات كانت محدودة الفاعلية.

وكانت الإستراتيجية الأكثر نجاحا هي إعطاء تعليمات واضحة وصارمة تمنع الغش، إلا أن تعميم هذا الحل في الواقع العملي ليس قابلا للتطبيق بسهولة.

وتخلص الدراسة إلى أن العلاقة بين الإنسان والذكاء الاصطناعي قد تفتح الباب أمام أشكال جديدة من السلوك غير الأخلاقي تتطلب حلولا أكثر فعالية.

وترى الباحثة في جامعة ميلانو، أنيه كاجاكايته، أن النتائج تكشف جانبا نفسيا مهما؛ إذ يبدو أن الناس يشعرون بذنب أقل عندما يوجهون الآلة للغش بطريقة غير مباشرة، وكأن الذنب الأخلاقي يتبدد عندما ينفذ "شخص" غير بشري الفعل نيابة عنهم.

مقالات مشابهة

  • الذكاء الاصطناعي يهدد 44 وظيفة
  • الذكاء الاصطناعي يزاحم العمالة في مصر
  • جوجل تتيح وضع "الذكاء الاصطناعي AI Mode" باللغة العربية
  • كيف يؤثر استخدام الذكاء الاصطناعي على الطلاب؟
  • كيف استخدمت إٍسرائيل الذكاء الاصطناعي سلاحا في حربها على غزة؟
  • أوبن ايه آي تكشف ملامح جيل جديد من الذكاء الاصطناعي فيDevDay
  • ضخ المال أساسي لتحسين أداء الذكاء الاصطناعي
  • دراسة.. يميل الناس إلى الغش عند استخدام الذكاء الاصطناعي
  • الخارجية: نحرز تقدما كبيرا لإنهاء الحرب على قطاع غزة
  • هل يشجع الذكاء الاصطناعي البشر على الغش؟