إحدى المشكلات المزمنة التي تعاني منها أنظمة الذكاء الاصطناعي التوليدي الحالية، مثل "شات جي بي تي"، هي أنها غالبا تؤكد بثقة على بعض المعلومات الخاطئة، ويطلق الباحثون والخبراء على هذا السلوك اسم "الهلوسة"، وهو يمثل عائقا أساسيا أمام فعالية تلك الأنظمة.

يحاول الباحثون من عدة جامعات ومؤسسات بحثية إيجاد حلول لتلك المشكلة، وفي ورقة بحثية جديدة، نُشرت في دورية "نيتشر" العلمية، يصف الباحثون، في قسم علوم الحاسب بجامعة أكسفورد، أسلوبا جديدا لاكتشاف متى يُحتمل أن تهلوس أنظمة الذكاء الاصطناعي.

تتمكن المنهجية المذكورة في الورقة البحثية من التفرقة بين الإجابات الصحيحة والخاطئة، التي يولدها نموذج الذكاء الاصطناعي بنسبة 79% تقريبا من الوقت، وهي نسبة أعلى بنحو 10 نقاط مئوية من المنهجيات الرائدة الأخرى المتاحة حاليا.

ورغم أن هذا الأسلوب يعالج سببا واحدا فقط من الأسباب العديدة لهلوسة نماذج الذكاء الاصطناعي، ويتطلب قوة حوسبة أكبر بعشر مرات تقريبا من المحادثة العادية مع الروبوت، فإن تلك النتائج قد تمهد الطريق لأنظمة ذكاء اصطناعي موثوقة أكثر في المستقبل القريب، كما يشير تقرير في مجلة تايم.

هلوسة الذكاء الاصطناعي

أصبح مصطلح "الهلوسة" شائعا في مجال الذكاء الاصطناعي، لكنه يعتبر أيضا مصطلحا مثيرا للجدل، فمن ناحية، يشير المصطلح إلى أن لدى النماذج نوعا ما من الخبرة الذاتية للعالم، وهو ما يتفق معظم علماء الحاسب على أنه ليس موجودا.

ومن ناحية أخرى، يشير المصطلح إلى أن تلك الهلوسة هي مشكلة قابلة للحل، وليست مشكلة جوهرية، وربما غير قابلة للحل في النماذج اللغوية الكبيرة، ويظهر هنا اختلاف بين معسكرات الباحثين في مجال الذكاء الاصطناعي حول إجابة هذا السؤال، لكن الأهم من كل ذلك هو أن المصطلح غير دقيق، فهو يصف عدة فئات متباينة من الأخطاء التي يقع بها نموذج الذكاء الاصطناعي، كما يشير التقرير.

ولذا قرر فريق جامعة أكسفورد التركيز على فئة واحدة بعينها من الهلوسة، أطلقوا عليها اسم "التَخْريف" (confabulations)، وهي عندما يصدر نموذج ذكاء اصطناعي إجابات خاطئة غير متوافقة على سؤال يتعلق بالحقائق، على عكس الإجابة الخاطئة المتوافقة نفسها التي تنشأ غالبا من أسباب أخرى مثل مشكلات في بيانات تدريب النموذج، أو عندما يكذب النموذج سعيا وراء الحصول على مكسب ما، أو عندما يعاني من خلل هيكلي في منطقه أو أسلوب استنتاجه.

"الأنتروبيا الدلالية" هو مقياس لمدى تشابه أو اختلاف معاني كل إجابة (شترستوك) أسلوب بسيط

الأسلوب الذي استخدمه الفريق البحثي لاكتشاف احتمالية أن يخرف النموذج بسيط نسبيا، في البداية، يطلب الباحثون من روبوت المحادثة أن يصدر مجموعة من الإجابات، تكون عادة ما بين 5 إلى 10 إجابات، على السؤال نفسه، ثم يستخدمون نموذجا لغويا مختلفا لتصنيف تلك الإجابات بناء على معناها.

على سبيل المثال، إجابات "باريس هي عاصمة فرنسا" و"عاصمة فرنسا هي باريس" سيصنفهما النموذج في المجموعة نفسها لأنهما يحملان المعنى ذاته، بالرغم من اختلاف صياغة الجملتين. أما إجابة مثل "عاصمة فرنسا هي روما" فيصنفها النموذج في مجموعة مختلفة.

ثم يحسب الباحثون بعد ذلك رقما أطلقوا عليه اسم "الأنتروبيا الدلالية" (semantic entropy)، وهو مقياس لمدى تشابه أو اختلاف معاني كل إجابة، فإذا كانت كل إجابات النموذج تحمل معاني مختلفة، تصبح قيمة الأنتروبيا الدلالية مرتفعة، مما يشير إلى أن النموذج مشوش ويتعرض لسلوك "التخريف".

أما إذا كانت كل إجابات النموذج تحمل معاني متطابقة أو متشابهة، فستكون قيمة الأنتروبيا الدلالية منخفضة، مما يشير إلى أن النموذج يقدم إجابة متسقة، ولهذا لا يُحتمل أن يكون النموذج معرضا لسلوك التخريف، قد تظل الإجابة خاطئة باستمرار، لكن هذا يعتبر نوعا مختلفا من الهلوسة، مثلا قد تكون بسبب مشكلات في بيانات تدريب النموذج نفسها.

ذكر الباحثون أن أسلوب رصد الأنتروبيا الدلالية تفوق على العديد من الأساليب الأخرى لاكتشاف هلوسة نماذج الذكاء الاصطناعي، وشملت تلك الأساليب "الأنتروبيا البدائية"، التي تكتشف فقط اختلاف صياغة الجملة وليس معناها، وأسلوب آخر يطلب من النموذج نفسه تقييم مدى صحة إجاباته، بجانب أسلوب آخر يُضبط فيه نموذج الذكاء الاصطناعي على الإجابات الصحيحة لأسئلة محددة.

هل يصلح للتطبيق العملي؟

يطرح الفريق البحثي بعض الأفكار حول كيف يمكن لمنهجية كشف "الأنتروبيا الدلالية" أن تبدأ في الحد من هلوسة روبوتات المحادثة الرائدة في المجال حاليا. يذكر أحد مؤلفي الورقة البحثية أنها من الممكن نظريا أن تسمح لشركة أوبن إيه آي بإضافة خيار إلى روبوت "شات جي بي تي"، حين يضغط المستخدم على إجابة ما، سيحصل على درجة من التأكد تمنحه شعورا أكبر بالثقة حول دقة تلك الإجابة.

كما يوضح أن هذا الأسلوب قد يُدمج أيضا ضمن الأدوات الأخرى التي تعتمد على نماذج الذكاء الاصطناعي في أماكن العمل مرتفعة المخاطر، حيث ترغب الشركة أو المؤسسة في مبادلة السرعة والتكلفة بدقة الإجابة.

في حين أن الفريق البحثي متفائل بشأن قدرة أسلوبهم على تحسين موثوقية أنظمة الذكاء الاصطناعي، إلا أن بعض الخبراء يحذرون من المبالغة في تقدير تأثيره الفوري، وفقا لتقرير تايم.

ويشير بعض الخبراء إلى عدم وضوح إمكانية دمج هذا الأسلوب في تطبيقات حقيقية مثل روبوتات المحادثة المنتشرة حاليا، كما يشير التقرير، ويوضحون أنه كلما أصبحت نماذج الذكاء الاصطناعي أكثر قدرة، سيحاول الناس استخدامها في مهام أكثر صعوبة ربما تزداد فيها احتمالية الفشل.

المصدر: الجزيرة

كلمات دلالية: حراك الجامعات حريات نماذج الذکاء الاصطناعی إلى أن

إقرأ أيضاً:

المستشار عادل ماجد: الذكاء الاصطناعي بإمكانه خدمة العدالة بشرط

أكد المستشار عادل ماجد نائب رئيس محكمة النقض وأستاذ القانون الفخري بجامعة درهام بالمملكة المتحدة، أن توظيف الذكاء الاصطناعي في مجال إدارة العدالة، وفق إطار منظم، من شأنه أن يُسهم في تحقيق العدالة الناجزة، مشيرا إلى أن استخدام هذه الأدوات يجب ألا يتعارض مع مبادئ حماية الحقوق والحريات والمقتضيات الوطنية.

جاء ذلك في الكلمة التي ألقاها المستشار عادل ماجد، خلال أعمال منتدى الأمم المتحدة لحوكمة الإنترنت، والمنعقد خلال الفترة من 23 إلى 27 يونيو الجاري بمملكة النرويج بدعوة من الأمانة العامة للأمم المتحدة ومشاركة من ممثلي 170 دولة حول العالم.

وقال المستشار عادل ماجد خلال الجلسة المخصصة لاستخدام الذكاء الاصطناعي في القضاء، إن توظيف الذكاء الاصطناعي لا ينبغي أن يُترك دون ضوابط أو أن يُحتكر من قبل الشركات المُصنعة ومُشغلي تلك الخدمات، مشددا على ضرورة أن يُراعي هذا الاستخدام مصالح الدول النامية ويحفظ سيادتها.

وأشار إلى أن إدماج الذكاء الاصطناعي في المنظومة القضائية يجب أن يتم وفقا للتشريعات الوطنية النافذة، كما استعرض أوجه توظيف الذكاء الاصطناعي في مجال القضاء بما يُسهم في تحقيق العدالة الناجزة.

وشدد المستشار عادل ماجد على أن استخدام هذه الأدوات يجب ألا يتعارض مع المبادئ القضائية الراسخة التي أرستها محكمة النقض المصرية، لاسيما تلك المتعلقة بحماية الحقوق والحريات، مؤكدا أن أدوات الذكاء الاصطناعي لا يجوز أن تحل محل القاضي، أو أن تمس بحريته في تكوين قناعته القضائية.

وقد حضر جلسات المنتدى من البعثة الدبلوماسية المصرية، السكرتير الأول كريم حسام الدين، ممثلا عن السفير الدكتور جمال عبد الرحيم متولي سفير مصر لدى مملكة النرويج وأيسلندا.

اقرأ أيضاً«العدل» تؤكد دعم الجهود الوطنية لبناء مجتمع واعٍ وخالٍ من الإدمان

مساعد وزير الخارجية ينقل تهنئة الرئيس السيسي لنظيره الموزمبيقي بمناسبة ذكرى الاستقلال

مقالات مشابهة

  • نظام watchOS 26 .. أبرز ميزات الذكاء الاصطناعي القادمة إلى ساعات آبل
  • تلخيص للرسائل.. الذكاء الاصطناعي يدخل واتساب
  • توم كروز فى فيصل.. كيف شكل الذكاء الاصطناعي ملامح جديدة للمشاهير؟
  • المستشار عادل ماجد: الذكاء الاصطناعي بإمكانه خدمة العدالة بشرط
  • حقوق النشر.. معركة مستعرة بين عمالقة الذكاء الاصطناعي والمبدعين
  • متى يُعد استخدام الذكاء الاصطناعي سرقة أدبية؟
  • عندما يبتزنا ويُهددنا الذكاء الاصطناعي
  • محسن صبري لـ "الفجر الفني": الذكاء الاصطناعي تقنية خطيرة جدًا وهذا رأيي به.. أحضر أعمال جديدة (خاص)
  • العمري: حتى الذكاء الاصطناعي لا يستطيع حل مشاكل النصر
  • مساعد العمري: مشاكل النصر لا يحلها إلا الذكاء الاصطناعي.. فيديو