نقلت وكالة "رويترز" عن مصادر مطلعة قولهم، قولهم إن العديد من الباحثين الموظفين أرسلوا رسالة إلى مجلس الإدارة تحذرهم من اكتشاف قوي للذكاء الاصطناعي قالوا إنه "قد يهدد البشرية".

وبحسب المصادر فإن هذا حصل قبل أربعة أيام من الإطاحة بـ سام ألتمان، الشريك المؤسس والرئيس التنفيذي لشركة "أوبن إيه آي" قبل ان يعود لاحقاً تحت ضغوطات مورت على مجلس الإدارة.



وقال المصدران إن الرسالة التي لم يتم الإبلاغ عنها سابقا وخوارزمية الذكاء الاصطناعي كانتا تطورا رئيسيا قبل إطاحة مجلس الإدارة بألتمان، الطفل المدلل للذكاء الاصطناعي التوليدي. وقبل عودته المظفرة، في وقت متأخر من الثلاثاء، هدد أكثر من 700 موظف بالاستقالة والانضمام إلى شركة مايكروسوفت تضامنا مع مديرهم المطرود.



وأشار المصدران إلى أن هذه الرسالة تعتبر أحد العوامل من بين قائمة أطول من التظلمات المقدمة من مجلس الإدارة والتي أدت إلى إقالة ألتمان فيما لم تتمكن وكالة رويترز من مراجعة نسخة من الرسالة. ولم يستجب الباحثون الذين كتبوا الرسالة على الفور لطلبات التعليق.

ووفقًا لأحد المصادر، تحدثت ميرا موراتي، المديرة التنفيذية، الأربعاء، للموظفين عن المشروع، المسمى "كيو ستار"  (Q*)، وقالت إنه تم إرسال خطاب إلى مجلس الإدارة قبل أحداث نهاية هذا الأسبوع.

وقال أحد الأشخاص لـ"رويترز" إن الشركة المصنعة لـ"تشات جي بي تي" أحرزت تقدما في مشروع "كيو ستار" والذي يعتقد البعض داخليا أنه يمكن أن يمثل تقدما في بحث الشركة الناشئة عن الذكاء الفائق، المعروف أيضا باسم الذكاء العام الاصطناعي (AGI) .

ويُعرّف "أوبن إيه آي" الذكاء الاصطناعي العام بأنه أنظمة ذكاء اصطناعي أكثر ذكاءً من البشر.
ونظرًا للموارد الحاسوبية الهائلة، كان النموذج الجديد قادرا على حل بعض المشكلات الرياضية، حسبما قال الشخص الذي طلب عدم الكشف عن هويته.



وقال المصدر إنه رغم أداء المعادلات فقط على مستوى طلاب المدارس الابتدائية فقط، فإن التفوق في مثل هذه الاختبارات جعل الباحثين متفائلين للغاية بشأن نجاح "كيو ستار" في المستقبل.
ولم تتمكن رويترز من التحقق بشكل مستقل من قدرات "كيو ستار"  التي ادعاها الباحثون.
 وحاولت "رويترز" شرح الذكاء الفائق، موضحة أن الباحثين يعتبرون الرياضيات بمثابة حدود لتطوير الذكاء الاصطناعي التوليدي.

وفي الوقت الحالي، يعد الذكاء الاصطناعي التوليدي جيدا في الكتابة وترجمة اللغة من خلال التنبؤ إحصائيا بالكلمة التالية، ويمكن أن تختلف الإجابات على نفس السؤال بشكل كبير. لكن التغلب على القدرة على حساب المعادلات الرياضية، حيث لا توجد سوى إجابة واحدة صحيحة، يعني أن الذكاء الاصطناعي سيتمتع بقدرات تفكير أكبر تشبه الذكاء البشري. ويعتقد باحثو الذكاء الاصطناعي أن هذا يمكن تطبيقه على الأبحاث العلمية الجديدة.

وعلى عكس الآلة الحاسبة التي يمكنها حل عدد محدود من العمليات، يمكن للذكاء الاصطناعي العام التعميم والتعلم والفهم.



وفي رسالتهم إلى مجلس الإدارة، أشار الباحثون إلى براعة الذكاء الاصطناعي والخطر المحتمل، حسبما قالت المصادر دون تحديد المخاوف المتعلقة بالسلامة على وجه التحديد المذكورة في الرسالة.
ولقد كان هناك نقاش منذ فترة طويلة بين علماء الكمبيوتر حول الخطر الذي تشكله الآلات فائقة الذكاء، على سبيل المثال، إذا قرروا أن تدمير البشرية كان في مصلحتهم.

وعلى هذه الخلفية، قاد ألتمان الجهود الرامية إلى جعل "تشات جي بي تي" واحدا من أسرع التطبيقات البرمجية نموًا في التاريخ وجذب الاستثمار وموارد الحوسبة  اللازمة من مايكروسوفت للاقتراب من الذكاء الفائق، أو "إيه جي آي".

المصدر: عربي21

كلمات دلالية: سياسة اقتصاد رياضة مقالات صحافة أفكار عالم الفن تكنولوجيا صحة تفاعلي سياسة اقتصاد رياضة مقالات صحافة أفكار عالم الفن تكنولوجيا صحة تفاعلي تكنولوجيا علوم وتكنولوجيا علوم وتكنولوجيا الذكاء الاصطناعي التطبيقات تطبيقات ذكاء اصطناعي سام التمان لغات البرمجة علوم وتكنولوجيا علوم وتكنولوجيا علوم وتكنولوجيا علوم وتكنولوجيا علوم وتكنولوجيا علوم وتكنولوجيا سياسة سياسة تكنولوجيا تكنولوجيا تكنولوجيا تكنولوجيا تكنولوجيا تكنولوجيا سياسة اقتصاد رياضة صحافة أفكار عالم الفن تكنولوجيا صحة الذکاء الاصطناعی مجلس الإدارة

إقرأ أيضاً:

الأخلاقيات في الأتمتة: معالجة التحيز في الذكاء الاصطناعي

مع تزايد اعتماد الشركات على الأنظمة الآلية، أصبحت الأخلاقيات مصدر قلق رئيسي. وباتت الخوارزميات تتخذ، بشكل متزايد، القرارات التي كان يتخذها البشر سابقًا، وتؤثر هذه الأنظمة على العديد من مناحي الحياة. تتطلب هذه القوة، التي يملكها الذكاء الاصطناعي، مسؤولية. فبدون قواعد ومعايير أخلاقية واضحة، يمكن للأتمتة أن تُؤدي إلى الظلم وتُسبب الضرر.
يؤثر التحيز وتجاهل الأخلاقيات على الناس بطرق حقيقية. يمكن للأنظمة المتحيزة، على سبيل المثال، أن ترفض منح القروض أو الوظائف أو الرعاية الصحية، ويمكن للأتمتة أن تزيد من سرعة اتخاذ القرارات الخاطئة في حال عدم وجود حواجز حماية. عندما تتخذ الأنظمة قرارًا خاطئًا، غالبًا ما يكون من الصعب الاعتراض عليه أو حتى فهم السبب، ويؤدي غياب الشفافية إلى تحويل الأخطاء الصغيرة إلى مشاكل أكبر.
سبب التحيز في الذكاء الاصطناعي
غالبًا ما ينشأ التحيز في الأتمتة من البيانات. إذا تضمنت البيانات التاريخية تمييزًا، فقد تُكرر الأنظمة المُدربة عليها هذه الأنماط. على سبيل المثال، قد ترفض أداة ذكاء اصطناعي تُستخدم لفحص المتقدمين للوظائف المرشحين بناءً على الجنس أو العرق أو العمر إذا كانت بيانات التدريب الخاصة بها تعكس تلك التحيزات السابقة. ويدخل التحيز أيضًا من خلال التصميم، حيث يمكن للاختيارات المتعلقة بما يجب قياسه، والنتائج التي يجب تفضيلها، وكيفية تصنيف البيانات أن تؤدي إلى نتائج منحرفة.
هناك أنواع عديدة من التحيز. يحدث تحيز العينات عندما لا تُمثل مجموعة البيانات جميع الفئات، بينما قد ينشأ تحيز التصنيف من مدخلات بشرية ذاتية. حتى الخيارات التقنية، مثل نوع الخوارزمية، قد تُشوّه النتائج.
المشاكل ليست نظرية فحسب. فقد تخلت شركة "أمازون" للتجارة الإلكترونية عن استخدام أداة توظيف في عام 2018 بعد أن فضّلت المرشحين الذكور، ووُجد أن بعض أنظمة التعرف على الوجه تُخطئ في تحديد الأشخاص ذوي البشرة الملونة بمعدلات أعلى من غيرهم. تُزعزع هذه المشاكل الثقة في نماذج الذكاء الاصطناعي وتُثير المخاوف.
وهناك مصدر قلق حقيقي آخر. فحتى عندما لا تُستخدم سمات مثل العرق، بشكل مباشر، فإن سمات أخرى مثل الرمز البريدي أو المستوى التعليمي قد تُمثّل بدائل، مما يعني أن النظام قد يُميّز حتى لو بدت المدخلات محايدة، على سبيل المثال، بناءً على المناطق الأكثر ثراءً أو فقرًا. يصعب اكتشاف التحيز دون اختبار دقيق. ويُعدّ ارتفاع حالات تحيز الذكاء الاصطناعي علامة على الحاجة إلى مزيد من الاهتمام بتصميم النظام.
المعايير المهمة
القوانين تُواكب التطور وتحاول معالجة التحيز. يُصنّف قانون الذكاء الاصطناعي للاتحاد الأوروبي، الصادر عام 2024، أنظمة الذكاء الاصطناعي حسب درجة خطورتها. يجب أن تستوفي الأنظمة عالية الخطورة، كتلك المستخدمة في التوظيف أو تقييم الجدارة الائتمانية، متطلبات صارمة، تشمل الشفافية والرقابة البشرية والتحقق من التحيز. في الولايات المتحدة، تعمل الجهات التنظيمية بفاعلية. وتُحذّر لجنة تكافؤ فرص العمل أصحاب العمل من مخاطر أدوات التوظيف المُدارة بالذكاء الاصطناعي، كما أشارت لجنة التجارة الفيدرالية إلى أن الأنظمة المتحيزة قد تُخالف قوانين مكافحة التمييز.
أنظمة أكثر عدالة
لا تنشأ أخلاقيات الأتمتة صدفة، بل تتطلب تخطيطًا دقيقًا، وأدوات مناسبة، واهتمامًا مستمرًا. يجب دمج التحيز والإنصاف في العملية منذ البداية، لا إضافتهما لاحقًا. وهذا يستلزم تحديد الأهداف، واختيار البيانات المناسبة، وإشراك الأطراف المعنية.
يتطلب تحقيق ذلك اتباع بعض الاستراتيجيات الرئيسية:
إجراء تقييمات التحيز
الخطوة الأولى للتغلب على التحيز هي اكتشافه. يجب إجراء تقييمات التحيز مبكرًا وبشكل متكرر، من مرحلة تطوير النموذج إلى نشره، لضمان عدم تحقيق الأنظمة لنتائج غير عادلة. قد تشمل المقاييس القرارات التي يكون لها تأثير أكبر على مجموعة واحدة من غيرها.
يجب أن تُجري جهات خارجية عمليات تدقيق التحيز كلما أمكن ذلك. قد تُغفل المراجعات الداخلية قضايا رئيسية أو تفتقر إلى الاستقلالية، كما أن الشفافية في عمليات التدقيق الموضوعية تبني ثقة الجمهور.
مجموعات بيانات متنوعة
تساعد بيانات التدريب المتنوعة على تقليل التحيز من خلال تضمين عينات من جميع مجموعات المستخدمين، وخاصةً تلك التي غالبًا ما يتم استبعادها. فمساعد صوتي مُدرّب في الغالب على أصوات الرجال لن يُجدي نفعًا مع النساء، ونموذج تقييم الائتمان الذي يفتقر إلى بيانات المستخدمين ذوي الدخل المحدود قد يُسيء تقديرهم.
يساعد تنوع البيانات أيضًا النماذج على التكيف مع الاستخدام الفعلي. ينتمي المستخدمون إلى خلفيات مختلفة، وينبغي أن تعكس الأنظمة ذلك. فالتنوع الجغرافي والثقافي واللغوي جميعها عوامل مهمة. تنوع البيانات لا يكفي بمفرده. فيجب أن تكون دقيقة ومُصنّفة جيدًا.
الشمولية في التصميم
يُشرك التصميم الشامل الأشخاص المتأثرين. ينبغي على المطورين استشارة المستخدمين، وخاصةً المعرضين لخطر الضرر (أو الذين قد يُسببون ضررًا باستخدام الذكاء الاصطناعي المتحيز)، لأن ذلك يُساعد على كشف الجوانب السلبية.
يعني التصميم الشامل أيضًا فرقًا متعددة التخصصات. إن إشراك خبراء الأخلاق والقانون والعلوم الاجتماعية يُمكن أن يُحسّن عملية اتخاذ القرار، لأن هذه الفرق أكثر ميلًا لطرح أسئلة مختلفة ورصد المخاطر.
يجب أن تكون الفرق متنوعة أيضًا. فالأشخاص ذوو التجارب الحياتية المختلفة يكتشفون قضايا مختلفة، والنظام الذي تُنشئه مجموعة متجانسة قد يتغاضى عن مخاطر قد يكتشفها الآخرون.
الخلاصة أن الأتمتة باقية، لكن الثقة في أنظمة الذكاء الاصطناعي تعتمد على عدالة النتائج ووضوح القواعد. إذ قد يُسبب التحيز في أنظمة الذكاء الاصطناعي ضررًا.

أخبار ذات صلة الذكاء الاصطناعي.. إلى أين يقود العالم؟ طحنون بن زايد يلتقي مايك بلومبرغ المصدر: الاتحاد - أبوظبي

مقالات مشابهة

  • لماذا لن يُفقدنا الذكاء الاصطناعي وظائفنا؟
  • وليد علاء الدين: الشعراء أول مَن وضع أسس الذكاء الاصطناعي!
  • 200 مشارك في «ستار لبناء الأجسام» بأبوظبي
  • الذكاء الاصطناعي يثير ضجة حول عادل إمام
  • الأخلاقيات في الأتمتة: معالجة التحيز في الذكاء الاصطناعي
  • الذكاء الاصطناعي يقلب موازين البحث في في غوغل
  • الذكاء الاصطناعي.. إلى أين يقود العالم؟
  • الذكاء الاصطناعي يدخل عالم التسوق
  • الذكاء الاصطناعي والدراما العراقية.. صراع بين تطور التقنية السريع وبطء الواقع
  • الذكاء الصناعي يهدد مطوريه ويتوعد بكشف الأسرار.. سلوك مرعب