هلوسة وإجابات غير مفهومة.. ماذا حدث لـ ChatGPT ؟
تاريخ النشر: 25th, February 2024 GMT
على مدار الأيام القليلة الماضية، عبر مستخدمو أداة الذكاء الاصطناعي ChatGPT عن إنزعاجهم الشديد من الردود “ الغريبة” التي أظهرتها الأداة، والتي كانت مخيبة تمامًا لآمال المستخدمين، الأمر الذي جعل بعضهم يصفون الأداة بأنها “ مجنونة” .
وفقًا للعديد من المستخدمين الذين نشروا تفاعلات على منصة التواصل الاجتماعي Reddit، فإن ChatGPT يتصرف بشكل غريب جدًا، وفقًا لصحيفة “فاينانشال تايمز”.
وأفاد أحد المستخدمين أن برنامج الدردشة الآلي الذي يعمل بالذكاء الاصطناعي بدأ في الرد بشكل متكرر بعبارة "الاستماع السعيد" مرارًا وتكرارًا، بعد سؤاله عن موسيقى الجاز.
كما تلقى آخر "صخبًا مضطربًا" متعدد الفقرات عندما سأل سؤال بسيط عن "ما هو الكمبيوتر؟"، والأكثر غرابة هو أن مستخدمًا آخر تلقى ردًا مكتوبًا باللغة الإسبانية، ، دون أي مطالبة من هذا القبيل على الإطلاق.
وقالت شركة OpenAI “نحن نحقق في التقارير المتعلقة بالاستجابات غير المتوقعة من ChatGPT. نحن مستمرون في مراقبة الوضع. ونعمل على الإصلاح”. ومؤكدة أنه "تم تحديد المشكلة"، لكنها لم تقدم أي تفسير محدد للسلوك الغريب.
وفي وقت سابق، أفادت تقارير أن شركة مايكروسوفت منعت موظفيها من استخدام ChatGPT بسبب مخاوف تتعلق بالأمان والبيانات.
وفي أغسطس من العام الماضي، وتوصلت دراسة حديثة في جامعة "Purdue" بوردو في الولايات المتحدة الأمريكية إلى أن الإجابات التي تقدمها ChatGPT خاطئة بنسبة تزيد عن 50٪ ، حيث كانت أكثر من نصف إجابات ChatGPT غير صحيحة، وأن قدراتها اللغوية المتقدمة تمكنت من تضليل جزء كبير من المشاركين.
المصدر: صدى البلد
كلمات دلالية: الذكاء الاصطناعي شركة OpenAI
إقرأ أيضاً:
هلوسة ذكاء اصطناعي تكشف رقم شخص عشوائي بدل خدمة العملاء!
صراحة نيوز- في حادثة مثيرة للجدل، تسبّب مساعد الذكاء الاصطناعي في تطبيق “واتساب”، المعتمد على نماذج “لاما” من شركة “ميتا”، بتسريب رقم هاتف شخصي لمستخدم لا علاقة له بالشركة، بعد أن طلب أحد الركاب رقم خدمة عملاء شركة القطارات البريطانية “ترانس بينين إكسبريس”، وفقًا لما نقلته صحيفة “ذا غارديان”.
الحادثة وقعت عندما حاول باري سميثورست التواصل مع الشركة بعد تأخر قطاره المتجه إلى مانشستر بيكاديللي، فلجأ إلى مساعد الذكاء في “واتساب” للحصول على رقم خدمة العملاء، ليفاجأ برقم يعود لرجل يُدعى جيمس غراي، لا تربطه أي صلة بالشركة أو بسميثورست.
وعندما أشار سميثورست إلى الخطأ، رد المساعد بالاعتذار، موضحًا أن الرقم تم توليده بشكل عشوائي، وأنه لا يستند إلى قاعدة بيانات دقيقة، على الرغم من ذكره استخدام قواعد بيانات عامة.
الخبير مايك ستانوب علّق على الحادثة قائلًا: “هذا نموذج لفشل خطير في أنظمة الذكاء الاصطناعي، وإذا كانت ميتا تصمم نماذج تعتمد الكذب الأبيض، فعليها توضيح ذلك للمستخدمين”.
أما شركة “ميتا”، فذكرت أن الرقم الذي تم تزويد المستخدم به متاح علنًا على الإنترنت، وقد يتشابه جزئيًا مع رقم خدمة العملاء الحقيقي، مشددة على أن بيانات المستخدمين ليست ضمن قواعد التدريب الخاصة بالنموذج.
وتنضم هذه الواقعة إلى سلسلة من الأخطاء التي ارتكبتها نماذج الذكاء الاصطناعي مؤخرًا، من بينها حالات مشابهة تورط فيها “شات جي بي تي”، حيث قدم معلومات خاطئة حول قضايا حساسة.