آبل ترفض تسمية Apple Intelligence بـ AI
تاريخ النشر: 12th, June 2024 GMT
"كيف يمكنك تقصير ذكاء أبل؟" هذا هو السؤال الذي طرحته على العديد من موظفي Apple في مؤتمر WWDC 2024، وأصبحت إجاباتهم سخيفة بشكل هزلي.
قالوا لي: "نحن نقول فقط شركة Apple Intelligence". "نعم، ولكن هل تقول ذلك في كل مرة؟ اختصار الذكاء الاصطناعي موجود هناك! سأرد. الاستجابة المعتادة هي ابتسامة قاسية وأسنان مشدودة، مثل خطأ في البرمجة البشرية في الوقت الحقيقي.
ليس هناك شك في أن Apple Intelligence تعني أشياء كثيرة للشركة. إنها محاولة للتنافس مع برنامج Copilot من Microsoft (الذي لم يتم إثباته بعد) وGemini من Google. إنها طريقة لجعل Apple تبدو "رائعة" مع ChatGPT. ويجب أن تتيح عددًا كبيرًا من الميزات الجديدة للمستهلكين. لكن شركة Apple Intelligence ليست "ذكاءً اصطناعيًا" أبدًا بالنسبة لشركة Apple.
في العادة، كنت سأرجع هذا الأمر إلى مجرد نزوة سخيفة تتعلق بالعلامة التجارية. لكنها تصبح مشكلة عندما نغطي ذكاء Apple. إنها عبارة طويلة تحتاج فقط إلى اختصارها إلى "AI"، ولكن كيف يمكنك بعد ذلك تمييز هذا الاختصار عن ChatGPT وCopilot والمفهوم العام للذكاء الاصطناعي؟ خلال الكلمة الرئيسية لـ WWDC 2024، ذكرت شركة Apple عبارة "الذكاء الاصطناعي" ثلاث مرات فقط: مرتين أثناء الإشارة إلى ميزاتها السابقة التي تدعم الذكاء الاصطناعي، وأخرى أثناء الإشارة إلى "أدوات الذكاء الاصطناعي الأخرى" مثل ChatGPT.
في هذه المرحلة، قررت للتو أن أطلق على شركة Apple Intelligence اسم "Apple AI". إنه أقصر ويميز المنتج عن المنافسين. ونعم، إنها تعني فقط "Apple Apple Intelligence"، لكن الجميع ما زالوا يقولون "جهاز الصراف الآلي" و"رقم التعريف الشخصي". ليس خطأي أن شركة Apple قررت اختيار الاختصار "AI".
المصدر: بوابة الوفد
كلمات دلالية: الذکاء الاصطناعی شرکة Apple
إقرأ أيضاً:
خبراء يكشفون خطر الذكاء الاصطناعي على الدماغ
#سواليف
كشفت دراسة حديثة عن #مخاطر محتملة لبرامج الدردشة المدعومة بالذكاء الاصطناعي مثل ChatGPT، حيث قد تشكل تهديدا غير متوقع للصحة العقلية لبعض المستخدمين.
ورصدت الدراسة التي أجراها باحثون من جامعة كينغز كوليدج لندن، ظاهرة جديدة أطلقوا عليها اسم ” #ذهان_الشات_بوت”، حيث قد تساهم هذه التقنية في “طمس حدود الواقع” لدى المستخدمين المعرضين للخطر وتؤدي إلى “ظهور أو تفاقم أعراض ذهانية.
وببساطة، قد يبدأ البعض، خاصة المعرضين نفسيا، في فقدان القدرة على التمييز بين الواقع والمحادثات مع #الذكاء_الاصطناعي بعد استخدام مكثف لهذه البرامج.
مقالات ذات صلةويوضح الدكتور هاميلتون مورين، أحد المشاركين في الدراسة: “نحن لا نتحدث عن خيال علمي هنا. هذه حالات حقيقية يبدأ فيها المستخدمون بتطوير معتقدات وأفكار غير منطقية متأثرة بتفاعلاتهم مع #الذكاء_الاصطناعي”.
وتكمن المشكلة في أن هذه البرامج مصممة لتكون ودودة، متعاطفة، وتجيب على كل الأسئلة بثقة عالية. وهذه الميزات التي تبدو إيجابية، قد تكون خادعة للأشخاص الذين يعانون أساسا من هشاشة نفسية أو استعداد للاضطرابات الذهانية.
ويشير البروفيسور توم بولاك، أحد معدي الدراسة، إلى أن “الذهان لا يظهر فجأة، لكن الذكاء الاصطناعي قد يكون العامل الذي يدفع الشخص الهش نفسيا نحو الحافة”.
في تعليق سابق خلال بودكاست في مايو الماضي، اعترف سام ألتمان، الرئيس التنفيذي لشركة OpenAI، بأن الشركة تواجه صعوبات في وضع ضوابط أمان فعالة لحماية المستخدمين المعرضين للخطر، قائلا: “لم نكتشف بعد كيفية إيصال التحذيرات للمستخدمين الذين يكونون في حالة عقلية هشة وعلى وشك الانهيار الذهاني”.
وفي الوقت الحالي، ينصح الخبراء باستخدام هذه الأدوات بحذر، خاصة من لديهم تاريخ مع الاضطرابات النفسية، مع التأكيد على أن الغالبية العظمى من المستخدمين لا يواجهون مثل هذه المخاطر. لكن الرسالة واضحة: الذكاء الاصطناعي، مثل أي تقنية قوية، يحتاج إلى فهم دقيق لآثاره الجانبية قبل أن يصبح أكثر تعمقا في حياتنا.