بمواجهة مايكروسوفت.. مقعد رقابي لآبل في مجلس أوبن إيه آي
تاريخ النشر: 3rd, July 2024 GMT
ستحصل آبل على مقعد المراقب في مجلس إدارة شركة "أوبن إيه آي" بموجب الصفقة التي أعلنت عنها هذه الشركة الأميركية الشهر الماضي في مؤتمر المطورين السنوي، وفقا لما ذكره تقرير من بلومبيرغ.
وتأتي هذه الخطوة بعد إعلان آبل، في يونيو/حزيران الماضي، أنها ستوفر روبوت المحادثة "شات جي بي تي" في هواتف آيفون وأجهزة آيباد وماك ضمن باقتها لميزات الذكاء الاصطناعي الجديدة.
وقد وقع الاختيار على فيل شيلر، رئيس متجر تطبيقات آبل والرئيس السابق لقسم التسويق، لتولي هذا المنصب الجديد في "أوبن إيه آي" لكنه سيتولى مراقبة قرارات مجلس الإدارة دون التدخل فيها، وفقا لما ذكره أشخاص مطلعون على الوضع طلبوا عدم الكشف عن هويتهم كما أشارت بلومبيرغ.
وبحسب نفس الأشخاص، فإن هذا الاتفاق سيدخل حيز التنفيذ لاحقا هذا العام، وأشاروا إلى أن شيلر لم يحضر أي اجتماعات في "أوبن إيه آي" حتى الآن وقد تتغير تفاصيل الوضع مستقبلا.
وسيضع هذا الدور الرقابي آبل على نفس مستوى شركة مايكروسوفت، وهي أكبر ممول لـ"أوبن إيه آي" والمزود الأساسي لها بتقنيات الحوسبة السحابية اللازمة لتشغيل نماذج الذكاء الاصطناعي.
ويتيح هذا الدور الرقابي حضور اجتماعات مجلس الإدارة دون أن يتمكن الشخص من التصويت أو ممارسة صلاحيات أخرى خاصة بأعضاء مجلس الإدارة، لكن يمكن للمراقبين الاطلاع على كيفية اتخاذ القرارات داخل الشركة.
وقد يؤدي حضور ممثلين من مايكروسوفت وآبل اجتماعات مجلس "أوبن إيه آي" إلى إثارة بعض الصعوبات أمامهما، نظرا للتنافس الكبير بين الشركتين على مدار العقود الماضية، كما أشار تقرير بلومبيرغ.
فغالبا، ستناقش بعض اجتماعات مجلس إدارة "أوبن إيه آي" مبادرات الذكاء الاصطناعي المستقبلية بينها وبين مايكروسوفت، والتي قد ترغب مايكروسوفت في استبعاد ممثل آبل منها. ويلتزم غالبا مراقبو مجلس الإدارة بهذا ويخرجون من الاجتماعات أثناء المناقشات التي تُعتبر حساسة.
والوقت الحالي، لا تقدم شراكة آبل و"أوبن إيه آي" مقابلا ماليا، ولكن تحصل الأخيرة على إمكانية وصول تقنياتها إلى ملايين المستخدمين لأجهزة آبل.
ومن جانبها ستحصل آبل على استخدام "شات جي بي تي" وهي ميزة يطالب بها العديد من المستخدمين الذين سيتمكنون من الوصول إلى النسخة المدفوعة من روبوت المحادثة على أجهزة آبل والذي قد يحقق بعض الإيرادات من متجر تطبيقاتها.
ورغم شهرة "أوبن إيه آي" بمجال الذكاء الاصطناعي التوليدي، فإنها تشتهر أيضا بالجدل وبعض الاضطرابات خلال الفترة الماضية. وفي نوفمبر/تشرين الثاني الماضي، أطاح مجلس الإدارة بالرئيس التنفيذي سام ألتمان لفترة وجيزة، ثم عاد إلى منصبه بعدها بأسبوع.
كما واجهت الشركة انتقادات واسعة بسبب عدم اهتمامها بمخاوف سلامة الذكاء الاصطناعي، بجانب استخدام صوت رقمي يشبه صوت الممثلة سكارليت جوهانسون دون موافقة منها.
المصدر: الجزيرة
كلمات دلالية: حراك الجامعات حريات الذکاء الاصطناعی مجلس الإدارة أوبن إیه آی
إقرأ أيضاً:
خبراء يكشفون خطر الذكاء الاصطناعي على الدماغ
#سواليف
كشفت دراسة حديثة عن #مخاطر محتملة لبرامج الدردشة المدعومة بالذكاء الاصطناعي مثل ChatGPT، حيث قد تشكل تهديدا غير متوقع للصحة العقلية لبعض المستخدمين.
ورصدت الدراسة التي أجراها باحثون من جامعة كينغز كوليدج لندن، ظاهرة جديدة أطلقوا عليها اسم ” #ذهان_الشات_بوت”، حيث قد تساهم هذه التقنية في “طمس حدود الواقع” لدى المستخدمين المعرضين للخطر وتؤدي إلى “ظهور أو تفاقم أعراض ذهانية.
وببساطة، قد يبدأ البعض، خاصة المعرضين نفسيا، في فقدان القدرة على التمييز بين الواقع والمحادثات مع #الذكاء_الاصطناعي بعد استخدام مكثف لهذه البرامج.
مقالات ذات صلةويوضح الدكتور هاميلتون مورين، أحد المشاركين في الدراسة: “نحن لا نتحدث عن خيال علمي هنا. هذه حالات حقيقية يبدأ فيها المستخدمون بتطوير معتقدات وأفكار غير منطقية متأثرة بتفاعلاتهم مع #الذكاء_الاصطناعي”.
وتكمن المشكلة في أن هذه البرامج مصممة لتكون ودودة، متعاطفة، وتجيب على كل الأسئلة بثقة عالية. وهذه الميزات التي تبدو إيجابية، قد تكون خادعة للأشخاص الذين يعانون أساسا من هشاشة نفسية أو استعداد للاضطرابات الذهانية.
ويشير البروفيسور توم بولاك، أحد معدي الدراسة، إلى أن “الذهان لا يظهر فجأة، لكن الذكاء الاصطناعي قد يكون العامل الذي يدفع الشخص الهش نفسيا نحو الحافة”.
في تعليق سابق خلال بودكاست في مايو الماضي، اعترف سام ألتمان، الرئيس التنفيذي لشركة OpenAI، بأن الشركة تواجه صعوبات في وضع ضوابط أمان فعالة لحماية المستخدمين المعرضين للخطر، قائلا: “لم نكتشف بعد كيفية إيصال التحذيرات للمستخدمين الذين يكونون في حالة عقلية هشة وعلى وشك الانهيار الذهاني”.
وفي الوقت الحالي، ينصح الخبراء باستخدام هذه الأدوات بحذر، خاصة من لديهم تاريخ مع الاضطرابات النفسية، مع التأكيد على أن الغالبية العظمى من المستخدمين لا يواجهون مثل هذه المخاطر. لكن الرسالة واضحة: الذكاء الاصطناعي، مثل أي تقنية قوية، يحتاج إلى فهم دقيق لآثاره الجانبية قبل أن يصبح أكثر تعمقا في حياتنا.