بوابة الوفد:
2025-06-23@07:51:28 GMT

نموذج O1 الجديد من OpenAI أبطأ عن قصد

تاريخ النشر: 14th, September 2024 GMT

أعلنت OpenAI عن أحدث نموذج للذكاء الاصطناعي يسمى O1، والذي تدعي الشركة أنه يمكنه أداء مهام التفكير المعقدة بشكل أكثر فعالية من سابقاته. يأتي الإصدار في الوقت الذي تواجه فيه OpenAI منافسة متزايدة في السباق لتطوير أنظمة ذكاء اصطناعي أكثر تطوراً.

تم تدريب O1 على "قضاء المزيد من الوقت في التفكير في المشكلات قبل الاستجابة لها، تمامًا كما يفعل الشخص"، كما قالت OpenAI على موقعها على الإنترنت.

"من خلال التدريب، تتعلم [النماذج] تحسين عملية تفكيرها، وتجربة استراتيجيات مختلفة، والتعرف على أخطائها". تتخيل OpenAI أن النموذج الجديد يستخدمه باحثو الرعاية الصحية لشرح بيانات تسلسل الخلايا، من قبل الفيزيائيين لإنشاء صيغ رياضية ومطوري البرامج.

أنظمة الذكاء الاصطناعي الحالية هي في الأساس إصدارات أكثر تطوراً من الإكمال التلقائي، وتوليد الاستجابات من خلال الإحصائيات بدلاً من "التفكير" فعليًا في سؤال، مما يعني أنها أقل "ذكاءً" مما تبدو عليه. على سبيل المثال، عندما حاولت شركة Engadget جعل ChatGPT وبرمجيات الدردشة الأخرى التي تعمل بالذكاء الاصطناعي تحل لعبة New York Times Spelling Bee، فقد أخطأت وأسفرت عن نتائج غير منطقية.

مع o1، تدعي الشركة أنها "تعيد العداد إلى 1" بنوع جديد من نموذج الذكاء الاصطناعي المصمم للانخراط فعليًا في حل المشكلات المعقدة والتفكير المنطقي. في منشور مدونة يوضح النموذج الجديد، قالت شركة OpenAI إنه يعمل بشكل مشابه لطلاب الدكتوراه في مهام معيارية صعبة في الفيزياء والكيمياء والأحياء، ويتفوق في الرياضيات والترميز. على سبيل المثال، حل نموذجها الرائد الحالي، GPT-4o، بشكل صحيح 13 بالمائة فقط من المشكلات في امتحان تأهيلي لأولمبياد الرياضيات الدولي مقارنة بـ o1، الذي حل 83 بالمائة.

ومع ذلك، لا يتضمن النموذج الجديد قدرات مثل تصفح الويب أو القدرة على تحميل الملفات والصور. ووفقًا لـ The Verge، فهو أبطأ بشكل ملحوظ في معالجة المطالبات مقارنة بـ GPT-4o. على الرغم من امتلاكها وقتًا أطول للنظر في مخرجاتها، إلا أن o1 لم تحل مشكلة "الهلوسة" - وهو مصطلح لنماذج الذكاء الاصطناعي التي تصنع المعلومات. قال كبير مسؤولي الأبحاث في الشركة بوب ماكجرو لموقع The Verge: "لا يمكننا القول أننا حللنا الهلوسة".

لا تزال O1 في مرحلة ناشئة. تطلق عليها OpenAI اسم "معاينة" وتجعلها متاحة فقط لعملاء ChatGPT المدفوعين بدءًا من اليوم مع قيود على عدد الأسئلة التي يمكنهم طرحها أسبوعيًا. بالإضافة إلى ذلك، تطلق OpenAI أيضًا o1-mini، وهي نسخة مخففة تقول الشركة إنها فعالة بشكل خاص للترميز.

المصدر: بوابة الوفد

إقرأ أيضاً:

خبراء يحذرون: الذكاء الاصطناعي ليس بديلًا آمنا للعلاج النفسي

مع التوسع المتزايد في استخدام تقنيات الذكاء الاصطناعي في شتى المجالات، بدأ البعض يلجأ لهذه الأدوات كمساعدات نفسية، أو حتى كبدائل عن الأطباء المختصين إلا أن خبراء الصحة النفسية يحذرون من هذه الممارسات، ويؤكدون أنها قد تحمل عواقب خطيرة على الصحة النفسية والخصوصية الشخصية.

خبراء يحذرون: الذكاء الاصطناعي ليس بديلًا آمنا للعلاج النفسي

وفي هذا السياق، صرحت الدكتورة يكاتيرينا أورلوفا، نائبة مدير معهد علم النفس السريري والعمل الاجتماعي بجامعة بيروغوفسكي الروسية، لصحيفة "غازيتا.رو"، بمجموعة من التحذيرات الهامة.

قالت أورلوفا إن "الذكاء الاصطناعي لا يمكنه تقديم دعم نفسي مؤهل، لأنه يفتقر إلى التعاطف الحقيقي، وغير قادر على التقاط الإشارات غير اللفظية الدقيقة التي تحمل في طياتها معانٍ نفسية عميقة". 

وأشارت إلى خطورة أن يفشل النظام في لحظات حرجة من اليأس أو الاضطراب النفسي، وربما يقدّم نصائح غير ملائمة أو حتى مؤذية.

خطر على خصوصية المرضى

أحد أكبر التحديات في الاعتماد على الذكاء الاصطناعي في العلاج النفسي هو الخصوصية وأوضحت أورلوفا: المشاعر والمخاوف التي يبوح بها المستخدم للذكاء الاصطناعي يمكن أن تُستخدم بشكل ضار إذا وقعت في أيدي جهات غير نزيهة، خاصة أن إعادة التعرف على هوية الأشخاص من بيانات مجهولة أصبح أمرًا ممكنًا في بعض الحالات.

وشدّدت الخبيرة على أن خوارزميات الذكاء الاصطناعي ليست محايدة، فهي تتعلم من بيانات أنشأها بشر يحملون تحيّزاتهم، مما يجعل الذكاء الاصطناعي عرضة لإعادة إنتاج الصور النمطية أو التمييز ضد فئات معينة من المرضى النفسيين.

أشارت أورلوفا إلى أن الخطر الأكبر يتمثل في خلق وهم لدى الناس بأن الذكاء الاصطناعي يمكنه أن يحل محل الطبيب النفسي، ما قد يؤدي إلى تأجيل طلب المساعدة الحقيقية حتى في الحالات الحرجة.

في الختام، رغم أن الذكاء الاصطناعي يمكن أن يكون أداة مساعدة في جمع البيانات أو تقديم دعم أولي، فإنه لا يجب اعتباره بديلًا للعلاج النفسي الحقيقي الذي يقدمه مختصون قادرون على التفاعل الإنساني والتعاطف وفهم السياق العاطفي بدقة.

مقالات مشابهة

  • دراسة صادمة.. أنظمة الذكاء الاصطناعي تظهر سلوكا خطيرا للحفاظ على بقائها
  • مساعد الذكاء الاصطناعي بواتساب يسرب رقم هاتف أحد المستخدمين
  • “آبل”: الذكاء الاصطناعي يفتقر للتفكير العميق
  • دراسة: استخدام الذكاء الاصطناعي في الكتابة يؤثر سلبًا في نشاط الدماغ
  • أبل تدرس الاستحواذ على Perplexity AI لتعويض تأخرها في سباق الذكاء الاصطناعي
  • خبراء يحذرون: الذكاء الاصطناعي ليس بديلًا آمنا للعلاج النفسي
  • الذكاء الاصطناعي في التحكيم الرياضي بين الدقة والتحديات
  • محتوى بلا بشر… الذكاء الاصطناعي يغزو تيك توك والارباح تتضاعف
  • غوغل تطور البحث الصوتي.. تفاعل ذكي مدعوم بـ«الذكاء الاصطناعي»
  • وضع الذكاء الاصطناعي.. رهان غوغل الجديد لمواجهة منافسي البحث