فريق OpenAI المكلف بحماية الإنسانية لم يعد موجودًا
تاريخ النشر: 18th, May 2024 GMT
في صيف عام 2023، أنشأت OpenAI فريق "Superalignment" الذي كان هدفه هو التوجيه والتحكم في أنظمة الذكاء الاصطناعي المستقبلية التي يمكن أن تكون قوية جدًا بحيث يمكن أن تؤدي إلى انقراض الإنسان. وبعد أقل من عام، مات هذا الفريق.
وأخبرت OpenAI بلومبرج أن الشركة كانت "تدمج المجموعة بشكل أكثر عمقًا في جهودها البحثية لمساعدة الشركة على تحقيق أهداف السلامة الخاصة بها".
وفي بيان نُشر على موقع X يوم الجمعة، قال Leike إن فريق Superalignment كان يكافح من أجل الحصول على الموارد اللازمة لإنجاز البحث. وكتب لايكي: "إن بناء آلات أكثر ذكاءً من الإنسان هو مسعى خطير بطبيعته". "تتحمل شركة OpenAI مسؤولية هائلة نيابة عن البشرية جمعاء. ولكن على مدى السنوات الماضية، تراجعت ثقافة السلامة وعملياتها إلى المنتجات اللامعة. لم تستجب OpenAI على الفور لطلب التعليق من Engadget.
جاءت رحيل Leike في وقت سابق من هذا الأسبوع بعد ساعات من إعلان كبير العلماء في OpenAI Sutskevar أنه سيترك الشركة. لم يكن Sutskevar واحدًا من رواد فريق Superalignment فحسب، بل ساعد أيضًا في تأسيس الشركة. جاءت خطوة سوتسكيفار بعد ستة أشهر من مشاركته في قرار إقالة الرئيس التنفيذي سام ألتمان بسبب مخاوف من أن ألتمان لم يكن "صريحًا باستمرار" مع مجلس الإدارة. أثارت إقالة ألتمان القصيرة للغاية ثورة داخلية داخل الشركة حيث وقع ما يقرب من 800 موظف على خطاب هددوا فيه بالاستقالة إذا لم تتم إعادة ألتمان إلى منصبه. وبعد خمسة أيام، عاد ألتمان إلى منصب الرئيس التنفيذي لشركة OpenAI بعد أن وقع سوتسكيفار على خطاب يفيد بأنه نادم على أفعاله.
عندما أعلنت عن إنشاء فريق Superalignment، قالت OpenAI إنها ستخصص 20 بالمائة من طاقة الكمبيوتر الخاصة بها على مدى السنوات الأربع المقبلة لحل مشكلة التحكم في أنظمة الذكاء الاصطناعي القوية في المستقبل. كتبت الشركة في ذلك الوقت: "[الحصول على] هذا الحق أمر بالغ الأهمية لتحقيق مهمتنا". في X، كتب Leike أن فريق Superalignment كان "يكافح من أجل الحوسبة وكان الأمر يزداد صعوبة أكثر فأكثر" لإجراء أبحاث مهمة حول سلامة الذكاء الاصطناعي. كتب: "على مدى الأشهر القليلة الماضية، كان فريقي يبحر عكس الريح"، وأضاف أنه وصل إلى "نقطة الانهيار" مع قيادة OpenAI بسبب الخلافات حول الأولويات الأساسية للشركة.
على مدى الأشهر القليلة الماضية، كان هناك المزيد من حالات المغادرة من فريق Superalignment. وفي إبريل، أفادت التقارير أن شركة OpenAI فصلت اثنين من الباحثين، هما ليوبولد أشنبرينر وبافيل إسماعيلوف، بدعوى تسريب معلومات.
صرحت شركة OpenAI لبلومبرج أن جهود السلامة المستقبلية الخاصة بها سيقودها جون شولمان، وهو مؤسس مشارك آخر، والذي تركز أبحاثه على نماذج اللغات الكبيرة. جاكوب باتشوكي، المدير الذي قاد تطوير GPT-4 - أحد نماذج اللغات الكبيرة الرائدة في OpenAI - سيحل محل سوتسكيفار كرئيس للعلماء.
لم يكن Superalignment هو الفريق الوحيد في OpenAI الذي يركز على سلامة الذكاء الاصطناعي. وفي أكتوبر، أنشأت الشركة فريقًا جديدًا "للاستعداد" للقضاء على "المخاطر الكارثية" المحتملة من أنظمة الذكاء الاصطناعي بما في ذلك قضايا الأمن السيبراني والتهديدات الكيميائية والنووية والبيولوجية.
تحديث، 17 مايو 2024، الساعة 3:28 مساءً بالتوقيت الشرقي: ردًا على طلب للتعليق على مزاعم Leike، قام أحد موظفي العلاقات العامة في OpenAI بتوجيه Engadget إلى تغريدة Sam Altman قائلًا إنه سيقول شيئًا ما في اليومين المقبلين.
المصدر: بوابة الوفد
كلمات دلالية: الذکاء الاصطناعی على مدى فی OpenAI فریق ا
إقرأ أيضاً:
الذكاء الاصطناعي يساعد الأطباء في تحليل الصور الطبية
برز الذكاء الاصطناعي، منذ ظهوره، كأداة فعّالة لتحليل الصور الطبية. وبفضل التطورات في مجال الحوسبة ومجموعات البيانات الطبية الضخمة التي يُمكن للذكاء الاصطناعي التعلّم منها، فقد أثبت جدواه في قراءة وتحليل الأنماط في صور الأشعة السينية، والتصوير بالرنين المغناطيسي، والتصوير المقطعي المحوسب، مما يُمكّن الأطباء من اتخاذ قرارات أفضل وأسرع، لا سيما في علاج وتشخيص الأمراض الخطيرة كالسرطان. في بعض الحالات، تُقدّم أدوات الذكاء الاصطناعي هذه مزايا تفوق حتى نظيراتها البشرية.
يقول أونور أسان، الأستاذ المشارك في معهد ستيفنز للتكنولوجيا في الولايات المتحدة، والذي يركز بحثه على التفاعل بين الإنسان والحاسوب في الرعاية الصحية "تستطيع أنظمة الذكاء الاصطناعي معالجة آلاف الصور بسرعة وتقديم تنبؤات أسرع بكثير من المُراجعين البشريين. وعلى عكس البشر، لا يتعب الذكاء الاصطناعي ولا يفقد تركيزه بمرور الوقت".
مع ذلك، ينظر العديد من الأطباء إلى الذكاء الاصطناعي بشيء من عدم الثقة، ويرجع ذلك في الغالب إلى عدم معرفتهم بكيفية وصوله إلى قراراته، وهي مشكلة تُعرف باسم "مشكلة الصندوق الأسود".
يقول أسان "عندما لا يعرف الأطباء كيف تُولّد أنظمة الذكاء الاصطناعي تنبؤاتها، تقلّ ثقتهم بها. لذا، أردنا معرفة ما إذا كان تقديم شروحات إضافية يُفيد الأطباء، وكيف تؤثر درجات التفسير المختلفة للذكاء الاصطناعي على دقة التشخيص، وكذلك على الثقة في النظام".
بالتعاون مع طالبة الدكتوراه أوليا رضائيان والأستاذ المساعد ألب أرسلان إمراه بايراك في جامعة ليهاي في ولاية بنسيلفانيا الأميركية، أجرى أسان دراسة شملت 28 طبيبًا متخصصًا في الأورام والأشعة، استخدموا الذكاء الاصطناعي لتحليل صور سرطان الثدي. كما زُوّد الأطباء بمستويات مختلفة من الشروح لتقييمات أداة الذكاء الاصطناعي. في النهاية، أجاب المشاركون على سلسلة من الأسئلة المصممة لقياس ثقتهم في التقييم الذي يُولّده الذكاء الاصطناعي ومدى صعوبة المهمة.
وجد الفريق أن الذكاء الاصطناعي حسّن دقة التشخيص لدى الأطباء مقارنةً بالمجموعة الضابطة، ولكن كانت هناك بعض الملاحظات المهمة.
اقرأ أيضا... مؤسسات تستخدم الذكاء الاصطناعي لأعمال معقدة ومتعددة الخطوات
كشفت الدراسة أن تقديم شروحات أكثر تفصيلًا لا يُؤدي بالضرورة إلى زيادة الثقة.
أخبار ذات صلةيقول أسان "وجدنا أن زيادة التفسير لا تعني بالضرورة زيادة الثقة". ذلك لأن وضع تفسيرات إضافية أو أكثر تعقيدًا يتطلب من الأطباء معالجة معلومات إضافية، مما يستنزف وقتهم وتركيزهم بعيدًا عن تحليل الصور. وعندما تكون التفسيرات أكثر تفصيلًا، يستغرق الأطباء وقتًا أطول لاتخاذ القرارات، مما يقلل من أدائهم العام.
يوضح أسان "معالجة المزيد من المعلومات تزيد من العبء المعرفي على الأطباء، وتزيد أيضًا من احتمال ارتكابهم للأخطاء، وربما إلحاق الضرر بالمريض. لا نريد زيادة العبء المعرفي على المستخدمين بإضافة المزيد من المهام".
كما وجدت أبحاث أسان أنه في بعض الحالات، يثق الأطباء بالذكاء الاصطناعي ثقةً مفرطة، مما قد يؤدي إلى إغفال معلومات حيوية في الصور، وبالتالي إلحاق الضرر بالمريض.
ويضيف أسان "إذا لم يُصمم نظام الذكاء الاصطناعي جيدًا، وارتكب بعض الأخطاء بينما يثق به المستخدمون ثقةً كبيرة، فقد يطور بعض الأطباء ثقةً عمياء، معتقدين أن كل ما يقترحه الذكاء الاصطناعي صحيح، ولا يدققون في النتائج بما فيه الكفاية".
قدّم الفريق نتائجه في دراستين حديثتين: الأولى بعنوان "تأثير تفسيرات الذكاء الاصطناعي على ثقة الأطباء ودقة التشخيص في سرطان الثدي"، والثانية بعنوان "قابلية التفسير وثقة الذكاء الاصطناعي في أنظمة دعم القرار السريري: تأثيراتها على الثقة والأداء التشخيصي والعبء المعرفي في رعاية سرطان الثدي".
يعتقد أسان أن الذكاء الاصطناعي سيظل مساعدًا قيّمًا للأطباء في تفسير الصور الطبية، ولكن يجب تصميم هذه الأنظمة بعناية.
ويقول "تشير نتائجنا إلى ضرورة توخي المصممين الحذر عند دمج التفسيرات في أنظمة الذكاء الاصطناعي"، حتى لا يصبح استخدامها معقدا. ويضيف أن التدريب المناسب سيكون ضروريًا للمستخدمين، إذ ستظل الرقابة البشرية لازمة.
وأكد "ينبغي أن يتلقى الأطباء، الذين يستخدمون الذكاء الاصطناعي، تدريبًا يركز على تفسير مخرجات الذكاء الاصطناعي وليس مجرد الوثوق بها".
ويشير أسان إلى أنه في نهاية المطاف، يجب تحقيق توازن جيد بين سهولة استخدام أنظمة الذكاء الاصطناعي وفائدتها.
ويؤكد الباحث "يُشير البحث إلى وجود معيارين أساسيين لاستخدام أي شكل من أشكال التكنولوجيا، وهما: الفائدة المتوقعة وسهولة الاستخدام المتوقعة. فإذا اعتقد الأطباء أن هذه الأداة مفيدة في أداء عملهم، وسهلة الاستخدام، فسوف يستخدمونها".
مصطفى أوفى (أبوظبي)