أوبن إيه آي تعلن بدء تدريب نموذج رائد جديد للذكاء الاصطناعي
تاريخ النشر: 29th, May 2024 GMT
أعلنت "أوبن إيه آي" -أمس الثلاثاء- أنها بدأت تدريب نموذج ذكاء اصطناعي رائد جديد سيخلف نموذجها التأسيسي الحالي "جي بي تي-4" الذي يدعم روبوت المحادثة الأشهر "شات جي بي تي" وفق ما ذكرت صحيفة نيويورك تايمز.
وذكرت الشركة، في منشور على مدونتها، أنها تتوقع أن "يوفر النموذج الجديد مستوى أعلى من القدرات" في إطار سعيها نحو تطوير الذكاء الاصطناعي العام، وهو عندما يمتلك النموذج قدرات تمكنه من تنفيذ نفس المهام التي ينفذها الدماغ البشري.
وسيعمل النموذج الجديد في إدارة منتجات الذكاء الاصطناعي التي تشمل روبوتات المحادثة والمساعدات الرقمية ومحركات البحث ونماذج توليد الصور.
يمكن أن يستغرق تدريب نماذج الذكاء الاصطناعي شهورًا أو حتى سنوات. وبعد الانتهاء من التدريب، عادةً ما تستغرق الشركات عدة أشهر أخرى لاختبار التقنية وصقلها لكي تصلح للاستخدام العام، وهو ما يعني أن النموذج القادم من أوبن إيه آي قد يصدر بعد نحو تسعة أشهر إلى سنة أو أكثر.
كما أعلنت الشركة أنها تعمل على تشكيل لجنة جديدة للأمان والسلامة لتبحث سبل مواجهة المخاطر التي يشكلها النموذج الجديد والتقنيات المستقبلية. وأضافت "بينما نفتخر بتطوير وإصدار نماذج رائدة بالصناعة من ناحية الإمكانيات والسلامة معًا، فإننا نرحب بالنقاش الجاد الدائر في ظل هذه اللحظة الحاسمة".
وتهدف "أوبن إيه آي" لتطوير تقنيات الذكاء الاصطناعي بوتيرة أسرع من منافسيها، وفي نفس الوقت تسعى إلى تهدئة المنتقدين ممن يعتبرون أن هذه التقنيات أصبحت أكثر خطورة، وهي مخاوف تتمثل في مساهمة تلك النماذج في نشر المعلومات المضللة والخوف من استبدال الوظائف بل وتهديد وجود البشرية، كما أشار تقرير نيويورك تايمز.
"أوبن إيه آي" تحاول الفوز بالسباقتتباين آراء الخبراء حول التوقيت الذي ستصل فيه شركات التقنية إلى تطوير الذكاء الاصطناعي العام، ولكن الشركات مثل أوبن إيه آي وغوغل وميتا ومايكروسوفت تعمل على تعزيز قوة هذه التقنيات الجديدة بصورة متواصلة ومتسارعة منذ أكثر من عقد من الزمن، مما يتسبب في حدوث طفرة ملحوظة كل عامين إلى 3 أعوام تقريبا.
وقالت الشركة إنه بينما تدرب نموذجها الجديد، ستعمل لجنة الأمان والسلامة الجديدة على تحسين سياسات وعمليات حماية تلك التقنية. وتضم اللجنة سام ألتمان (الرئيس التنفيذي) إضافة إلى أعضاء من مجلس الإدارة وهم بريت تايلور وآدم دانجيلو ونيكول سيليغمان. وذكرت الشركة أن السياسات الجديدة قد تدخل حيز التنفيذ أواخر الصيف أو الخريف المقبل.
ومؤخرًا، قررت الشركة حل الفريق الذي يركز على المخاطر طويلة الأمد للذكاء الاصطناعي بعد عام واحد فقط من إعلانها تشكيله، وكانت مهمته الأساسية هي التركيز على الإنجازات العلمية والتقنية لتوجيه أنظمة الذكاء الاصطناعي الأكثر ذكاء منا والتحكم فيها.
وجاء هذا الخبر بعد أيام من إعلان كل من قادة الفريق وهما إيليا سوتسكيفر (المؤسس المشارك للشركة) وجان ليكه، رحيلهما عن الشركة الناشئة. ولم يكشف سوتسكيفر أسباب رحيله، لكن الأخير أوضح بعض التفاصيل حول سبب مغادرته الشركة، وذكر عبر حسابه على منصة إكس "إن صنع آلات أكثر ذكاء من البشر مسعى محفوف بالمخاطر بطبيعته. وتتحمل أوبن إيه آي مسؤولية هائلة نيابة عن البشرية بأسرها. ولكن على مدى السنوات الماضية "تراجعت ثقافة السلامة وعملياتها على حساب المنتجات البرّاقة".
المصدر: الجزيرة
كلمات دلالية: حريات الذکاء الاصطناعی أوبن إیه آی
إقرأ أيضاً:
احذر فخ الذكاء الاصطناعي: مشهد وهمي بتقنية Veo 3 يثير الجدل
الرياض
أثار مقطع فيديو تم إنشاؤه عبر تقنية Veo 3 للذكاء الاصطناعي جدلًا واسعًا على منصات التواصل الاجتماعي، بعدما ظن كثيرون أنه يصور مشهدًا حقيقيًا لفتاة من الواقع، قبل أن يتبين لاحقًا أنه مجرد إنتاج رقمي دقيق لا علاقة له بالحقيقة.
المقطع، الذي نشره أحد الحسابات المهتمة بالتقنيات الحديثة، صور فتاة تتحرك في مشهد طبيعي للغاية من حيث الإضاءة، وتفاصيل الوجه، ولغة الجسد، ما دفع بعض المتابعين لمحاولة البحث عنها والتفاعل معها على أساس أنها شخصية حقيقية، دون إدراك أنها من صنع خوارزميات.
الفيديو أعاد تسليط الضوء على التحديات الأخلاقية والمخاطر المحتملة المرتبطة بتطور أدوات الذكاء الاصطناعي، خاصة في قدرتها على خلق محتوى واقعي بالكامل لأشخاص لا وجود لهم، مما يفتح الباب أمام الاستخدامات الخاطئة مثل التضليل، الابتزاز، أو التلاعب بالمعلومات.
ومن جهتهم، شدد خبراء التقنية على ضرورة التحقق من مصادر المحتوى قبل تصديقه أو تداوله، داعين إلى تعزيز الوعي الرقمي بين المستخدمين في ظل تسارع تطور أدوات إنشاء الصور والفيديوهات الذكية.
كما علق أحد المتخصصين قائلًا: “في عصر الذكاء الاصطناعي، لم يعد كل ما تراه عينك حقيقة، كن واعيًا ولا تقع في الفخ”.
https://cp.slaati.com//wp-content/uploads/2025/06/oZfq2Hzr0o1X6UDr.mp4