قبل أربعة أيام من الإطاحة بسام ألتمان، الشريك المؤسس والرئيس التنفيذي لشركة "أوبن إيه آي"، كشفت وكالة "رويترز" نقلا عن شخصين مطلعين على الأمر، أن العديد من الباحثين الموظفين أرسلوا رسالة إلى مجلس الإدارة تحذرهم من اكتشاف قوي للذكاء الاصطناعي قالوا إنه "قد يهدد البشرية".

وقال المصدران إن الرسالة التي لم يتم الإبلاغ عنها سابقا وخوارزمية الذكاء الاصطناعي كانتا تطورا رئيسيا قبل إطاحة مجلس الإدارة بألتمان، الطفل المدلل للذكاء الاصطناعي التوليدي.

وقبل عودته المظفرة، في وقت متأخر من الثلاثاء، هدد أكثر من 700 موظف بالاستقالة والانضمام إلى شركة مايكروسوفت تضامنا مع مديرهم المطرود.

وأشار المصدران إلى أن هذه الرسالة تعتبر أحد العوامل من بين قائمة أطول من التظلمات المقدمة من مجلس الإدارة والتي أدت إلى إقالة ألتمان.

ولم تتمكن رويترز من مراجعة نسخة من الرسالة. ولم يستجب الباحثون الذين كتبوا الرسالة على الفور لطلبات التعليق.

ووفقًا لأحد المصادر، تحدثت ميرا موراتي، المديرة التنفيذية، الأربعاء، للموظفين عن المشروع، المسمى "كيو ستار"  (Q*)، وقالت إنه تم إرسال خطاب إلى مجلس الإدارة قبل أحداث نهاية هذا الأسبوع.

وقال أحد الأشخاص لـ"رويترز" إن الشركة المصنعة لـ"تشات جي بي تي" أحرزت تقدما في مشروع "كيو ستار" والذي يعتقد البعض داخليا أنه يمكن أن يمثل تقدما في بحث الشركة الناشئة عن الذكاء الفائق، المعروف أيضا باسم الذكاء العام الاصطناعي (AGI) .

ويُعرّف "أوبن إيه آي" الذكاء الاصطناعي العام بأنه أنظمة ذكاء اصطناعي أكثر ذكاءً من البشر.

ونظرًا للموارد الحاسوبية الهائلة، كان النموذج الجديد قادرا على حل بعض المشكلات الرياضية، حسبما قال الشخص الذي طلب عدم الكشف عن هويته.

وقال المصدر إنه رغم أداء المعادلات فقط على مستوى طلاب المدارس الابتدائية فقط، فإن التفوق في مثل هذه الاختبارات جعل الباحثين متفائلين للغاية بشأن نجاح "كيو ستار" في المستقبل.

ولم تتمكن رويترز من التحقق بشكل مستقل من قدرات "كيو ستار"  التي ادعاها الباحثون.

 وحاولت "رويترز" شرح الذكاء الفائق، موضحة أن الباحثين يعتبرون الرياضيات بمثابة حدود لتطوير الذكاء الاصطناعي التوليدي.

وفي الوقت الحالي، يعد الذكاء الاصطناعي التوليدي جيدا في الكتابة وترجمة اللغة من خلال التنبؤ إحصائيا بالكلمة التالية، ويمكن أن تختلف الإجابات على نفس السؤال بشكل كبير. لكن التغلب على القدرة على حساب المعادلات الرياضية، حيث لا توجد سوى إجابة واحدة صحيحة، يعني أن الذكاء الاصطناعي سيتمتع بقدرات تفكير أكبر تشبه الذكاء البشري. ويعتقد باحثو الذكاء الاصطناعي أن هذا يمكن تطبيقه على الأبحاث العلمية الجديدة.

وعلى عكس الآلة الحاسبة التي يمكنها حل عدد محدود من العمليات، يمكن للذكاء الاصطناعي العام التعميم والتعلم والفهم.

وفي رسالتهم إلى مجلس الإدارة، أشار الباحثون إلى براعة الذكاء الاصطناعي والخطر المحتمل، حسبما قالت المصادر دون تحديد المخاوف المتعلقة بالسلامة على وجه التحديد المذكورة في الرسالة.

ولقد كان هناك نقاش منذ فترة طويلة بين علماء الكمبيوتر حول الخطر الذي تشكله الآلات فائقة الذكاء، على سبيل المثال، إذا قرروا أن تدمير البشرية كان في مصلحتهم.

وعلى هذه الخلفية، قاد ألتمان الجهود الرامية إلى جعل "تشات جي بي تي" واحدا من أسرع التطبيقات البرمجية نموًا في التاريخ وجذب الاستثمار وموارد الحوسبة  اللازمة من مايكروسوفت للاقتراب من الذكاء الفائق، أو "إيه جي آي".

المصدر: الحرة

كلمات دلالية: الذکاء الاصطناعی مجلس الإدارة

إقرأ أيضاً:

خبراء يكشفون خطر الذكاء الاصطناعي على الدماغ

#سواليف

كشفت دراسة حديثة عن #مخاطر محتملة لبرامج الدردشة المدعومة بالذكاء الاصطناعي مثل ChatGPT، حيث قد تشكل تهديدا غير متوقع للصحة العقلية لبعض المستخدمين.

ورصدت الدراسة التي أجراها باحثون من جامعة كينغز كوليدج لندن، ظاهرة جديدة أطلقوا عليها اسم ” #ذهان_الشات_بوت”، حيث قد تساهم هذه التقنية في “طمس حدود الواقع” لدى المستخدمين المعرضين للخطر وتؤدي إلى “ظهور أو تفاقم أعراض ذهانية.

وببساطة، قد يبدأ البعض، خاصة المعرضين نفسيا، في فقدان القدرة على التمييز بين الواقع والمحادثات مع #الذكاء_الاصطناعي بعد استخدام مكثف لهذه البرامج.

مقالات ذات صلة حرارة الصيف تهاجم إطارات السيارات.. كيف تحمي نفسك من أضرار لا تُرى؟ 2025/07/30

ويوضح الدكتور هاميلتون مورين، أحد المشاركين في الدراسة: “نحن لا نتحدث عن خيال علمي هنا. هذه حالات حقيقية يبدأ فيها المستخدمون بتطوير معتقدات وأفكار غير منطقية متأثرة بتفاعلاتهم مع #الذكاء_الاصطناعي”.

وتكمن المشكلة في أن هذه البرامج مصممة لتكون ودودة، متعاطفة، وتجيب على كل الأسئلة بثقة عالية. وهذه الميزات التي تبدو إيجابية، قد تكون خادعة للأشخاص الذين يعانون أساسا من هشاشة نفسية أو استعداد للاضطرابات الذهانية.

ويشير البروفيسور توم بولاك، أحد معدي الدراسة، إلى أن “الذهان لا يظهر فجأة، لكن الذكاء الاصطناعي قد يكون العامل الذي يدفع الشخص الهش نفسيا نحو الحافة”.

في تعليق سابق خلال بودكاست في مايو الماضي، اعترف سام ألتمان، الرئيس التنفيذي لشركة OpenAI، بأن الشركة تواجه صعوبات في وضع ضوابط أمان فعالة لحماية المستخدمين المعرضين للخطر، قائلا: “لم نكتشف بعد كيفية إيصال التحذيرات للمستخدمين الذين يكونون في حالة عقلية هشة وعلى وشك الانهيار الذهاني”.

وفي الوقت الحالي، ينصح الخبراء باستخدام هذه الأدوات بحذر، خاصة من لديهم تاريخ مع الاضطرابات النفسية، مع التأكيد على أن الغالبية العظمى من المستخدمين لا يواجهون مثل هذه المخاطر. لكن الرسالة واضحة: الذكاء الاصطناعي، مثل أي تقنية قوية، يحتاج إلى فهم دقيق لآثاره الجانبية قبل أن يصبح أكثر تعمقا في حياتنا.

مقالات مشابهة

  • محمود عتمان: مجلس الشيوخ يرفع دراسة الذكاء الاصطناعي للرئيس السيسي لتفعيلها تنفيذياً
  • زوكربيرغ: الذكاء الاصطناعي الخارق أصبح وشيكًا
  • ابتكار جهاز جديد يفرز النفايات باستخدام الذكاء الاصطناعي
  • 89% من الإماراتيين يستخدمون الذكاء الاصطناعي في التخطيط لعطلاتهم
  • احتيال شركات الذكاء الاصطناعي يجب أن يتوقف
  • السباق الاستخباراتي على الذكاء الاصطناعي
  • تمهيدًا للإضراب... موظفو الإدارة العامة يتوقفون عن العمل يومي الخميس والجمعة
  • معضلة الذكاء الاصطناعي والمؤلف العلمي
  • خبراء يكشفون خطر الذكاء الاصطناعي على الدماغ
  • «إي آند» تطلق برنامج خريجي الذكاء الاصطناعي لعام 2025