OpenAI تنشر رسائل البريد الإلكتروني لإيلون ماسك
تاريخ النشر: 15th, December 2024 GMT
نشرت شركة OpenAI إيصالات، في شكل جدول زمني طويل من رسائل البريد الإلكتروني والرسائل النصية والملفات القانونية، توضح أن أمر إيلون ماسك بمنع OpenAI من التحول إلى شركة ربحية يتعارض مع ما أراده في عام 2017.
في الأساس، تقدم OpenAI المزيد من الأدلة على حقيقة أن المؤسس المشارك السابق أراد أن تصبح شركة الذكاء الاصطناعي الناشئة شركة ربحية وجعله الرئيس التنفيذي.
يجب أن تقرأ المدونة بالكامل للحصول على جميع التفاصيل (والحصول على فكرة عن كيفية إرسال المليارديرات للبريد الإلكتروني) ولكن خلاصة الأمر هي أنه في عام 2017، توصل ماسك وOpenAI إلى تفاهم مفاده أن المؤسسة غير الربحية آنذاك بحاجة إلى أن تصبح شركة ربحية "لتقدم مهمتها" والاستفادة على ما يبدو من المصلحة العامة المكتسبة من تفوق الذكاء الاصطناعي على لاعبي Dota 2 المحترفين في مباريات فردية. وفقًا لـ OpenAI، اقترح ماسك هيكل مجلس إدارة جديدًا حيث "سيكون له سيطرة مبدئية لا لبس فيها على الشركة"، وهو ما عارضته OpenAI. أدى ذلك إلى الخلافات بين ماسك وقيادة OpenAI، وتركه في النهاية مجلس إدارة المنظمة غير الربحية في عام 2018. تم تأسيس xAI، شركة الذكاء الاصطناعي الناشئة التي أنشأها ماسك والتي تعد منافسًا مباشرًا لـ OpenAI، في عام 2023.
من الواضح جدًا ما تحاول OpenAI القيام به هنا. رفع ماسك دعوى قضائية ضد OpenAI لأول مرة في مارس 2024 بشأن تعاملات الشركة مع Microsoft والاعتقاد بأنها انتهكت وضعها غير الربحي. أسقط الدعوى بعد فترة وجيزة من نشر OpenAI لمدونة تحتوي على رسائل بريد إلكتروني تشير إلى أن ماسك يريد أن تندمج OpenAI مع Tesla أو تجعله الرئيس التنفيذي. تتوسع مدونة OpenAI الجديدة في كل هذه التفاصيل بمادة جديدة ويبدو أنها مهيأة لتحقيق تأثير مماثل.
المصدر: بوابة الوفد
كلمات دلالية: فی عام
إقرأ أيضاً:
خبراء يكشفون خطر الذكاء الاصطناعي على الدماغ
#سواليف
كشفت دراسة حديثة عن #مخاطر محتملة لبرامج الدردشة المدعومة بالذكاء الاصطناعي مثل ChatGPT، حيث قد تشكل تهديدا غير متوقع للصحة العقلية لبعض المستخدمين.
ورصدت الدراسة التي أجراها باحثون من جامعة كينغز كوليدج لندن، ظاهرة جديدة أطلقوا عليها اسم ” #ذهان_الشات_بوت”، حيث قد تساهم هذه التقنية في “طمس حدود الواقع” لدى المستخدمين المعرضين للخطر وتؤدي إلى “ظهور أو تفاقم أعراض ذهانية.
وببساطة، قد يبدأ البعض، خاصة المعرضين نفسيا، في فقدان القدرة على التمييز بين الواقع والمحادثات مع #الذكاء_الاصطناعي بعد استخدام مكثف لهذه البرامج.
مقالات ذات صلةويوضح الدكتور هاميلتون مورين، أحد المشاركين في الدراسة: “نحن لا نتحدث عن خيال علمي هنا. هذه حالات حقيقية يبدأ فيها المستخدمون بتطوير معتقدات وأفكار غير منطقية متأثرة بتفاعلاتهم مع #الذكاء_الاصطناعي”.
وتكمن المشكلة في أن هذه البرامج مصممة لتكون ودودة، متعاطفة، وتجيب على كل الأسئلة بثقة عالية. وهذه الميزات التي تبدو إيجابية، قد تكون خادعة للأشخاص الذين يعانون أساسا من هشاشة نفسية أو استعداد للاضطرابات الذهانية.
ويشير البروفيسور توم بولاك، أحد معدي الدراسة، إلى أن “الذهان لا يظهر فجأة، لكن الذكاء الاصطناعي قد يكون العامل الذي يدفع الشخص الهش نفسيا نحو الحافة”.
في تعليق سابق خلال بودكاست في مايو الماضي، اعترف سام ألتمان، الرئيس التنفيذي لشركة OpenAI، بأن الشركة تواجه صعوبات في وضع ضوابط أمان فعالة لحماية المستخدمين المعرضين للخطر، قائلا: “لم نكتشف بعد كيفية إيصال التحذيرات للمستخدمين الذين يكونون في حالة عقلية هشة وعلى وشك الانهيار الذهاني”.
وفي الوقت الحالي، ينصح الخبراء باستخدام هذه الأدوات بحذر، خاصة من لديهم تاريخ مع الاضطرابات النفسية، مع التأكيد على أن الغالبية العظمى من المستخدمين لا يواجهون مثل هذه المخاطر. لكن الرسالة واضحة: الذكاء الاصطناعي، مثل أي تقنية قوية، يحتاج إلى فهم دقيق لآثاره الجانبية قبل أن يصبح أكثر تعمقا في حياتنا.