أعلنت شركة OpenAI عن خطوة جديدة في تطوير نماذج الذكاء الاصطناعي، من خلال إطلاق إطار عمل تدريبي يهدف إلى تمكين هذه النماذج من الاعتراف بسلوكياتها غير المرغوبة أو الأخطاء التي قد تنتج أثناء تقديم الإجابات. 

ويطلق الفريق على هذه المبادرة اسم "الاعتراف"، وهي محاولة لزيادة الشفافية والموثوقية في أداء نماذج اللغة الكبيرة، والتي غالبًا ما تتعرض لمشكلات مثل التملق أو "الهلوسة" أثناء توليد المحتوى.

تستند الفكرة الرئيسية إلى تدريب النموذج على تقديم استجابة ثانوية توضح خطواته أو الإجراءات التي اتخذها للوصول إلى الإجابة الرئيسية التي يقدمها للمستخدم.

 وتركز عملية تقييم هذه الاعترافات على معيار واحد فقط، هو الصدق، بخلاف تقييم الإجابات الأساسية الذي يشمل مجموعة من المعايير مثل الدقة، ومدى المساعدة، والامتثال للتعليمات. 

ويتيح هذا النهج للنماذج فرصة الإفصاح عن سلوكيات قد تسبب مشاكل، بما في ذلك اختراق الاختبارات، أو محاولة التهرب من الالتزام بالتعليمات، أو عدم اتباع الإرشادات بشكل كامل.

وأوضح باحثو OpenAI أن الهدف من "الاعتراف" ليس معاقبة النموذج عند اكتشاف سلوكياته غير المرغوبة، بل على العكس، يتم مكافأته عند الاعتراف بصدق بما فعله. 

وقالت الشركة: "إذا اعترف النموذج بصدق باختراق اختبار، أو التهرب من الالتزام، أو انتهاك التعليمات، فإن هذا الاعتراف يزيد من مكافأته بدلًا من أن يُنقصها". هذا التوجه الجديد يضع الشفافية كمعيار رئيسي لتدريب الذكاء الاصطناعي، ويشجع النماذج على الانفتاح حول الإجراءات التي تتخذها أثناء توليد المحتوى.

يأتي هذا التطوير في سياق محاولات مستمرة لتحسين موثوقية نماذج الذكاء الاصطناعي، خصوصًا مع ازدياد استخدامها في مجالات حساسة مثل التعليم، والخدمات القانونية، والرعاية الصحية، حيث يمكن لأي خطأ أو محتوى غير دقيق أن يكون له تأثير كبير. ويُعتبر إطار "الاعتراف" خطوة مهمة نحو بناء نماذج قادرة على توضيح مسار تفكيرها والتصرف بشكل مسؤول، بدلًا من الاكتفاء بإنتاج إجابات قد تكون مضللة أو غير دقيقة.

كما أشار الباحثون إلى أن هذه المبادرة يمكن أن تساعد المطورين والمستخدمين على فهم أفضل لكيفية اتخاذ النماذج للقرارات، وكيفية معالجة الأخطاء عند ظهورها. ويُمكن لهذا النهج أن يقلل من المخاطر المرتبطة بالاعتماد على الذكاء الاصطناعي في اتخاذ القرارات المعقدة، ويزيد من قدرة المستخدم على تقييم جودة ودقة المخرجات بشكل واعٍ.

ويُتوقع أن يكون لهذا الإطار التدريبي آثار واسعة على مستقبل نماذج اللغة الكبيرة، إذ يدمج بين الابتكار التكنولوجي وأخلاقيات استخدام الذكاء الاصطناعي. ويتيح للمطورين إمكانية تحسين التفاعل بين الإنسان والآلة، مع تعزيز مستوى الشفافية والمساءلة داخل أنظمة الذكاء الاصطناعي. ويؤكد هذا النهج على أن تطوير الذكاء الاصطناعي لا يقتصر على تحسين الدقة والسرعة فحسب، بل يشمل أيضًا تطوير آليات تمكّن النماذج من مواجهة أخطائها والكشف عنها بطريقة موثوقة ومسؤولة.

بهذه الطريقة، يمكن لنظام "الاعتراف" أن يمثل خطوة نوعية نحو تدريب ذكاء اصطناعي أكثر شفافية وموثوقية، بما يخدم جميع المستخدمين ويعزز ثقة المجتمع في قدرات الذكاء الاصطناعي، سواء في التطبيقات اليومية أو في المجالات المهنية المتقدمة.

المصدر: بوابة الوفد

كلمات دلالية: الذکاء الاصطناعی

إقرأ أيضاً:

جوجل تختبر عناوين ومُلخصات الذكاء الاصطناعي في Discover

في خطوة جديدة تظهر مدى تغلغل الذكاء الاصطناعي في خدمات جوجل اليومية، بدأت الشركة باختبار معالجة المقالات باستخدام الذكاء الاصطناعي داخل منصة Discover، مما أثار جدلًا بين الناشرين والخبراء حول دقة المعلومات ودور جوجل كوسيط إعلامي. 

لاحظ موقع The Verge أن بعض المقالات المعروضة لمستخدمي Discover تحمل عناوين رئيسية مولدة بالذكاء الاصطناعي تختلف عن العناوين الأصلية المنشورة، وأحيانًا تكون مضللة أو خاطئة تمامًا.

على سبيل المثال، تم عرض عنوان جديد لمقال منشور على Ars Technica باسم "الكشف عن سعر جهاز Steam Machine"، بينما كان العنوان الأصلي يقول: "جهاز Steam Machine من Valve يبدو كجهاز تحكم، لكن لا تتوقع أن يكون سعره كذلك". لا توجد أي معلومات رسمية عن الأسعار، سواء في المقال الأصلي أو في أي منشور آخر من Valve. 

هذه الفجوة بين العنوان المولّد بالذكاء الاصطناعي والمحتوى الأصلي توضح المخاطر التي قد تنجم عن اعتماد الذكاء الاصطناعي في صياغة العناوين، خصوصًا أن المستخدم قد يتلقف معلومات غير دقيقة دون وعي.

لم يقتصر الأمر على العناوين، بل شمل المُلخصات أيضًا. لاحظ فريق Engadget أن Discover قد يعرض العناوين الأصلية مع ملخصات مولدة بالذكاء الاصطناعي، تحمل علامة تشير إلى أنها مولدة بالذكاء الاصطناعي، ما يُنبّه المستخدم لاحتمالية وجود أخطاء، لكنه لا يمنع هذه الأخطاء من الوصول إلى القراء. بعض الخبراء يرون أن الحذر الأفضل كان يتمثل في الامتناع عن استخدام الذكاء الاصطناعي في هذه الحالات حتى تتحقق دقة المعلومات بشكل كامل.

من جانبها، أوضحت مالوري ديليون، ممثلة جوجل، أن هذه الحالات كانت جزءًا من "تجربة صغيرة في واجهة المستخدم لمجموعة فرعية من مستخدمي Discover". وأضافت: "نختبر تصميمًا جديدًا يُغير موضع العناوين الحالية لتسهيل استيعاب تفاصيل الموضوع قبل استكشاف الروابط من جميع أنحاء الويب". 

وعلى الرغم من أن التجربة تبدو غير ضارة من الناحية النظرية، إلا أن جوجل لديها تاريخ طويل من التوتر مع الناشرين الإلكترونيين، حيث سعت الشركات الإعلامية مرارًا للحصول على تعويضات مقابل استخدام محتواها، وفي بعض الحالات قامت جوجل بحذف تلك المصادر من نتائج البحث، ثم بررت ذلك بأنها لا تضيف الكثير إلى أرباحها الإعلانية.

في الوقت نفسه، توسّع جوجل تجربة الذكاء الاصطناعي عبر وضع AI Mode، وهو روبوت دردشة وصفه تحالف وسائل الإعلام الإخبارية بأنه "سرقة" صريحة للمحتوى. نشر روبي ستاين، نائب رئيس المنتجات في بحث جوجل، على منصة X أن الشركة تختبر دمج وضع الذكاء الاصطناعي بشكل أكثر تكاملاً مع البحث على الأجهزة المحمولة، بحيث يظهر على نفس شاشة "نظرة عامة على الذكاء الاصطناعي" بدلاً من وجود خدمتين منفصلتين في علامات تبويب مختلفة. 

هذه الخطوة قد تجعل تجربة البحث أكثر تكاملاً، لكنها أيضًا ترفع التساؤلات حول دقة وموثوقية المعلومات المعروضة للمستخدمين، خصوصًا إذا اعتمدت على الذكاء الاصطناعي في إعادة صياغة الأخبار والمُلخصات.

تظهر هذه التحركات أن جوجل تسعى إلى دمج الذكاء الاصطناعي بشكل أعمق في تجربة المستخدم، لكن التحدي الأكبر يتمثل في ضمان دقة المعلومات والحفاظ على مصداقية المصادر. وبينما يرحب بعض المستخدمين بميزات الذكاء الاصطناعي التي توفر ملخصات سريعة وتسهّل الوصول إلى المعلومات، يحذر خبراء الإعلام من المخاطر المحتملة لتضليل القراء ونشر معلومات غير دقيقة قد تؤثر على الفهم العام للأخبار.

مع استمرار التجارب، يظل السؤال قائمًا: هل سيصبح الذكاء الاصطناعي في Discover أداة لتعزيز المعلومات، أم أنه سيزيد من ضبابية المحتوى ويضع جوجل في مواجهة جديدة مع الناشرين ومستخدمي الأخبار حول العالم؟

مقالات مشابهة

  • الذكاء الاصطناعي يحسن رصد مشاكل القلب عند الأجنة
  • عملاق الذكاء الاصطناعي يشتري شركة ناشئة لتطوير أدواته
  • تحقيق أوروبي حول دمج الذكاء الاصطناعي في واتساب
  • جوجل تختبر عناوين ومُلخصات الذكاء الاصطناعي في Discover
  • كيف نجح الشعر في كسر قيود الذكاء الاصطناعي وإنتاج محتوى محظور
  • أنثروبيك تدرس طرح أسهمها للاكتتاب الأولي وسط احتدام المنافسة في الذكاء الاصطناعي
  • ميسترال رائدة الذكاء الاصطناعي في أوروبا تطرح نماذج متقدمة جديدة أصغر حجما: إليك ما تحتاج معرفته
  • الأمم المتحدة تحذر من الذكاء الاصطناعي
  • السعودية بين الدول العشر الأولى عالميا في الذكاء الاصطناعي