ارتفاع أسهم Alphabet بعد مطالبة آبل بترخيص Gemini AI لأجهزة iPhone
تاريخ النشر: 19th, March 2024 GMT
أغلقت أسهم ألفابت مرتفعة أكثر من 4% الاثنين بعد تقرير عن شركة التكنولوجيا العملاقة آبل بشأن محادثات لترخيص Gemini لأجهزة iPhone المستقبلية. وأغلقت أسهم شركة أبل مرتفعة بأقل من 1%.
Gemini عبارة عن مجموعة من أدوات الذكاء الاصطناعي التوليدية من Google، بدءًا من روبوتات الدردشة إلى مساعدي البرمجة.
وفقًا لتقرير بلومبرج، تجري شركة Apple محادثات مع شركة Google المملوكة لشركة Alphabet للسماح لشركة iPhone بترخيص وبناء محرك Gemini AI الخاص بها في iPhone.
نقلاً عن أشخاص مطلعين على الأمر، قالت بلومبرج إن عملاقي التكنولوجيا "يجريان مفاوضات نشطة" من أجل Gemini لتشغيل بعض الميزات الجديدة المقرر إصدارها لبرنامج iPhone في وقت لاحق من هذا العام.
من المتوقع أن يتم إصدار التحديث الكبير التالي لجهاز iPhone، iOS 18، خلال مؤتمر المطورين العالمي. وذلك عندما تتحدث الشركة أكثر عن خططها للذكاء الاصطناعي التوليدي، وعندما تتحدث عادةً عن أحدث برامج iPhone الخاصة بها قبل طرحها للمستهلكين في الخريف.
قال تيم كوك، الرئيس التنفيذي لشركة أبل، إن الشركة "تستثمر بشكل كبير" في الذكاء الاصطناعي خلال الاجتماع السنوي للمساهمين في الشركة في فبراير.
وقال كوك: "في وقت لاحق من هذا العام، أتطلع إلى مشاركة الطرق التي يمكننا من خلالها فتح آفاق جديدة في الذكاء الاصطناعي التوليدي، وهي تقنية أخرى نعتقد أنها يمكن أن تعيد تعريف المستقبل".
كما أجرت الشركة مؤخرًا مناقشات مع OpenAI وفكرت في استخدام نموذجها، وفقًا للمصادر التي استشهدت بها بلومبرج.
ومع ذلك، قال التقرير: "لم يقرر الطرفان الشروط أو العلامة التجارية لاتفاقية الذكاء الاصطناعي أو وضع اللمسات النهائية على كيفية تنفيذها".
المصدر: بوابة الوفد
إقرأ أيضاً:
خبراء يكشفون خطر الذكاء الاصطناعي على الدماغ
#سواليف
كشفت دراسة حديثة عن #مخاطر محتملة لبرامج الدردشة المدعومة بالذكاء الاصطناعي مثل ChatGPT، حيث قد تشكل تهديدا غير متوقع للصحة العقلية لبعض المستخدمين.
ورصدت الدراسة التي أجراها باحثون من جامعة كينغز كوليدج لندن، ظاهرة جديدة أطلقوا عليها اسم ” #ذهان_الشات_بوت”، حيث قد تساهم هذه التقنية في “طمس حدود الواقع” لدى المستخدمين المعرضين للخطر وتؤدي إلى “ظهور أو تفاقم أعراض ذهانية.
وببساطة، قد يبدأ البعض، خاصة المعرضين نفسيا، في فقدان القدرة على التمييز بين الواقع والمحادثات مع #الذكاء_الاصطناعي بعد استخدام مكثف لهذه البرامج.
مقالات ذات صلةويوضح الدكتور هاميلتون مورين، أحد المشاركين في الدراسة: “نحن لا نتحدث عن خيال علمي هنا. هذه حالات حقيقية يبدأ فيها المستخدمون بتطوير معتقدات وأفكار غير منطقية متأثرة بتفاعلاتهم مع #الذكاء_الاصطناعي”.
وتكمن المشكلة في أن هذه البرامج مصممة لتكون ودودة، متعاطفة، وتجيب على كل الأسئلة بثقة عالية. وهذه الميزات التي تبدو إيجابية، قد تكون خادعة للأشخاص الذين يعانون أساسا من هشاشة نفسية أو استعداد للاضطرابات الذهانية.
ويشير البروفيسور توم بولاك، أحد معدي الدراسة، إلى أن “الذهان لا يظهر فجأة، لكن الذكاء الاصطناعي قد يكون العامل الذي يدفع الشخص الهش نفسيا نحو الحافة”.
في تعليق سابق خلال بودكاست في مايو الماضي، اعترف سام ألتمان، الرئيس التنفيذي لشركة OpenAI، بأن الشركة تواجه صعوبات في وضع ضوابط أمان فعالة لحماية المستخدمين المعرضين للخطر، قائلا: “لم نكتشف بعد كيفية إيصال التحذيرات للمستخدمين الذين يكونون في حالة عقلية هشة وعلى وشك الانهيار الذهاني”.
وفي الوقت الحالي، ينصح الخبراء باستخدام هذه الأدوات بحذر، خاصة من لديهم تاريخ مع الاضطرابات النفسية، مع التأكيد على أن الغالبية العظمى من المستخدمين لا يواجهون مثل هذه المخاطر. لكن الرسالة واضحة: الذكاء الاصطناعي، مثل أي تقنية قوية، يحتاج إلى فهم دقيق لآثاره الجانبية قبل أن يصبح أكثر تعمقا في حياتنا.