تكنولوجيا، الإجابات الغبية سبب تراجع شات جي بي تي،أرشيف السبت 15 يوليو 2023 16 10بعد أن شهد إقبالاً كبيراً مع .،عبر صحافة الإمارات، حيث يهتم الكثير من الناس بمشاهدة ومتابعه الاخبار، وتصدر خبر "الإجابات الغبية" سبب تراجع شات جي بي تي، محركات البحث العالمية و نتابع معكم تفاصيل ومعلوماته كما وردت الينا والان إلى التفاصيل.

"الإجابات الغبية" سبب تراجع شات جي بي تي

(أرشيف)

السبت 15 يوليو 2023 / 16:10

بعد أن شهد إقبالاً كبيراً مع إطلاقه لأول مرة، بدأ استخدام شات جي بي تي بالتراجع، مع انخفاض عدد الزيارات بنسبة 10% مقارنة بالشهر الماضي، وانخفاض عدد تنزيلات التطبيق أيضاً.

ووفقاً لما أوردته صحيفة Insider، فإن المستخدمين الذين يدفعون مقابل نموذج GPT-4 الأكثر قوة (الذي تم تضمين الوصول إليه في شات جي بي تي بلاس) قد اشتكوا على وسائل التواصل الاجتماعي ومنتديات OpenAI الخاصة من انخفاض جودة الإخراج من chatbot.

وهناك إجماع عام على أن GPT-4 كان قادراً على توليد مخرجات أسرع، ولكن بمستوى جودة أقل. وانتقل بيتر يانغ، قائد المنتج لشركة Roblox، إلى تويتر لانتقاد عمل شات جي بي تي، مدعياً أن "الجودة تبدو أسوأ". وقال أحد مستخدمي المنتدى إن تجربة GPT-4 الأخيرة تبدو "وكأنها قيادة سيارة فيراري لمدة شهر ثم تتحول فجأة إلى سيارة بيك أب قديمة".

وكان بعض المستخدمين أكثر قسوة، حيث وصفوا شات جي بي تي بالغباء والكسل، مع سلسلة طويلة في منتديات OpenAI مليئة بجميع أنواع الشكاوى. ووفقاً للمستخدمين، كانت هناك نقطة قبل بضعة أسابيع أصبح فيها GPT-4 أسرع بشكل كبير ولكن على حساب الأداء. وتكهن مجتمع الذكاء الاصطناعي بأن هذا قد يكون بسبب تحول في روح تصميم OpenAI وتقسيمه إلى عدة نماذج أصغر مدربة في مجالات محددة، والتي يمكن أن تعمل جنباً إلى جنب لتقديم نفس النتيجة النهائية.

ولم تؤكد OpenAI رسمياً هذه الحالة بعد، حيث لم يرد ذكر لمثل هذا التغيير الكبير في طريقة عمل GPT-4. لكنه تفسير موثوق به وفقاً لخبراء الصناعة مثل شارون زو، الرئيس التنفيذي لشركة Lamini لبناء الذكاء الاصطناعي، الذي وصف فكرة النماذج المتعددة بأنها "الخطوة الطبيعية التالية" في تطوير GPT-4.

وهناك مشكلة ملحة أخرى في شات جي بي تي يشك بعض المستخدمين في أنها قد تكون سبب الانخفاض الأخير في الأداء، وهي مشكلة يبدو أن صناعة الذكاء الاصطناعي غير مستعدة لمعالجتها إلى حد كبير. وإذا لم تكن على دراية بمصطلح "الالتقاط باستخدام الذكاء الاصطناعي"، فهو باختصار: نماذج اللغات الكبيرة (LLMs) مثل شات جي بي تي وغوغل بارد تتخلص من البيانات العامة لاستخدامها عند إنشاء الردود. وفي الأشهر الأخيرة، حدث ازدهار حقيقي في المحتوى الذي تم إنشاؤه بواسطة الذكاء الاصطناعي عبر الإنترنت - بما في ذلك سيل غير مرغوب فيه من الروايات التي ألفها الذكاء الاصطناعي على Kindle Unlimited - مما يعني أنه من المرجح بشكل متزايد أن تلتقط LLM المواد التي تم إنتاجها بالفعل بواسطة الذكاء الاصطناعي عند البحث عبر الويب عن معلومة.

وهذا ينطوي على مخاطر إنشاء حلقة تغذية مرتدة، حيث "تتعلم" نماذج الذكاء الاصطناعي من المحتوى الذي تم إنشاؤه في حد ذاته بواسطة الذكاء الاصطناعي، مما يؤدي إلى انخفاض تدريجي في تماسك المخرجات وجودتها. ومع توفر العديد من LLMs الآن لكل من المهنيين والجمهور الأوسع، أصبح خطر الالتقاط باستخدام الذكاء الاصطناعي سائداً بشكل متزايد - لا سيما أنه لا يوجد حتى الآن أي عرض مفيد لكيفية تفريق نماذج الذكاء الاصطناعي بدقة بين المعلومات "الحقيقية" والمحتوى الذي يتم إنشاؤه بواسطة الذكاء الاصطناعي، بحسب موقع تيك رادار.

المصدر: صحافة العرب

كلمات دلالية: موعد عاجل الدولار الامريكي اليوم اسعار الذهب اسعار النفط مباريات اليوم جدول ترتيب حالة الطقس

إقرأ أيضاً:

من صورة إلى وهم.. الوجه الآخر لتريند الذكاء الاصطناعي

في زمنٍ أصبحت فيه ضغطة زر كفيلة بتغيير ملامح الوجه ولون العين وحتى تفاصيل الجسد، تحوّل الذكاء الاصطناعي من أداة تقنية إلى تريند يجتاح مواقع التواصل الاجتماعي، فلم يعد تعديل الصور يقتصر على تحسين الإضاءة أو إزالة العيوب، بل تخطى ذلك إلى خلق صورة جديدة قد تنفصل تماماً عن الحقيقة، ورغم بريق المتعة والإبهار الذي يقدمه هذا التوجه، إلا أن آثاره السلبية باتت مقلقة، من تزوير الهوية وتشويه الواقع، إلى تعزيز معايير جمالية زائفة، وانعكاسات نفسية واجتماعية قد تترك جروحاً عميقة في وعي الأفراد، خصوصاً الشباب والمراهقين.

هذا التحقيق يُطلق صافرة إنذار بشأن الخطر الذي يهدد صورنا الشخصية، ليناقش كيف يمكن للذكاء الاصطناعي أن يحوّل «صورتك» من مجرد بكسلات إلى أداة لجمع المعلومات، وكيفية حماية نفسك من الوقوع في فخ التسريب أو الاستخدام غير الأخلاقي، مؤكدين على قاعدة أساسية، وهي أن الوعي الأمني للمستخدم هو خط الدفاع الأول والأخير عن هويته الرقمية.

عدسة الخداع.. حين يصنع الذكاء الاصطناعي واقعا غير موجود

قال الدكتور محمد بحيري، مدرس الذكاء الاصطناعي بالجامعة المصرية الروسية، إن أدوات تعديل الصور المدعومة بالذكاء الاصطناعي، مثل جيميني من جوجل وشات جي بي، تعمل وفق آليات تضمن الحفاظ على خصوصية المستخدم.

وأضاف «بحيري» في تصريحاته لـ «الأسبوع»: «البرامج المعتمدة تلتزم بمعايير أخلاقية صارمة، فالصور يتم رفعها بواسطة المستخدم الذي يتحمل مسؤوليتها، فالبرنامج لا يمكنه تغيير محتوى الصورة بشكل جذري ومخالف لأخلاقيات المستخدم (كمن يرفع صورة محجبة) إلا إذا طلب هو ذلك صراحةً، وهذه البيانات تُخزَّن وتُستخدم في نماذج تدريب ضخمة، لكن البرامج الموثوقة -الخاضعة لاتفاقيات مثل اللائحة العامة لحماية البيانات (GDPR) والتي تخص حقوق الملكية والبيانات- لا تُصرّح باستخدام هذه الصور لأي أغراض أخرى خارج نطاق الخدمة المباشرة».

وحذّر « بحيري» من مخاطر التسريب، قائلاً: «لا يوجد دليل على حدوث تسريب للصور من برامج مثل جيمني جوجل أو شات جي بي تي، لكن الخطر يكمن في البرامج غير الموثوقة، فإذا رفع المستخدم صوره على برنامج لا يخضع لمعايير GDPR، قد يتم استخدام تلك الصور من قِبل الشركة المطورة، حتى لو حصل المستخدم على النتيجة المطلوبة، لذا فعلينا أن نعي أن أي برنامج، بما في ذلك البرامج العملاقة، قد يكون عرضة للاختراق في المستقبل، مما يجعل الوعي بجهة الاستخدام أمراً حتمياً».

واستطرد: «عند البحث في متاجر التطبيقات، يجد المستخدم عشرات البرامج تحمل أيقونة شات جي بي تي نفسها، يجب على المستخدم أن يكون واعياً لمعرفة البرنامج المعتمد من غيره، حتى لا يقع فريسة لبرامج تستغل صوره في أغراض غير أخلاقية أو مسيئة».

وفيما يتعلق بالمخاطر المستقبلية الأعمق، أشار «بحيري» إلى أن التحدي لا يقتصر على استخدام الصور بشكل مسيء أو فردي، بل في جمع البيانات الضخمة لتكوين ملف شامل عن الشعوب.

واختتم «بحيري» حديثه، بالقول: «الذكاء الاصطناعي يجمع خصائص الصور ويُحلل ملامح المصريين وأشكالهم وتصرفاتهم التي يستخلصها من تفاعلاتهم مع البرنامج، والهدف هنا هو بناء ما نسميه «الثقافة الخفية» للشعب، فإذا أصبح هناك اتفاق عالمي مستقبلاً على إمكانية استنساخ أشكال أو شخصيات رقمية، فإن الذكاء الاصطناعي سيكون لديه النموذج العام (General Visual Extraction) للملامح المصرية، مما يمكنه من إنتاج نسخ مطابقة للملامح بدقة عالية. لذا، فإن وعي المستخدم هو خط الدفاع الأول عند استخدام هذه الأدوات».

الذكاء الاصطناعي والتجميل الرقمي: زينة عابرة أم تهديد للهوية؟

من جانبه، أكد الدكتور محمد الحارثي، استشاري أمن المعلومات، على أهمية الوعي الأمني للمستخدمين عند التعامل مع أدوات تعديل وتوليد الصور بالذكاء الاصطناعي، مشدداً على أن البيانات الشخصية هي المسؤولية الأولى والأخيرة للمستخدم.

وأضاف «الحارثي» لـ «الأسبوع»: «من المهم أن نعي جميعاً، وبخاصة الأطفال واليافعين، أن صورنا الشخصية التي تُرفع على هذه التطبيقات قد تظل قابلة للاستخدام من قِبل طرف ثالث، فبياناتنا لا تُسجل فقط لدينا أو لدى الشركة المالكة للتطبيق، . ورغم أن صورنا موجودة بالفعل على منصات التواصل الاجتماعي، إلا أننا ننصح دائماً بضرورة التعامل بحرص شديد مع البيانات الشخصية عند التفاعل مع أي وسيلة لتوليد الصور عبر الذكاء الاصطناعي».

وشدد «الحارثي» على نقطتين حاسمتين لتقليل المخاطر القانونية والأمنية، تتمثل في استخدام الصور الشخصية فقط، إذ يجب أن يتعامل المستخدم مع صوره الشخصية فقط، وليس صور الآخرين، فقد ظهرت بالفعل ترندات تشجع على استخدام صور شخصيات أخرى، وهذه مشكلة تترتب عليها إجراءات قانونية سواء محلياً أو دولياً، لانتهاكها حقوق ملكية الصورة أو استغلالها، لذا يجب أن نكون حريصين جداً على عدم المساس بحقوق الآخرين.

إلى جانب، تجنب الترندات غير المفيدة، فلا يجب أن ننساق وراء الترندات بمختلف أشكالها، فكثير من هذه الترندات غير مفيدة حقيقية وتُعتبر مضيعة للوقت، والأهم أنها تزيد من تعرض بياناتنا لمخاطر غير ضرورية.

وفي ختام تصريحاته، أكد «الحارثي» على احتمالية التسريب وسوء الاستخدام، حتى مع وجود الصور على السوشيال ميديا بالفعل، قائلًا: «قد يتم استغلال هذه الصور بشكل آخر في أغراض توليد محتوى مسيء أو أغراض غير أخلاقية، فصورنا موجودة بالفعل على منصات التواصل، وقد يتم استغلال هذه الصور مع طرف آخر، ولا نمنع الناس من الاستمتاع أو التفاعل مع التكنولوجيا، لكن يجب أن يكونوا حريصين على نوع الصورة ونوع التعديل الذي يسمحون به، وأن يتعاملوا مع الأمر بوعي أمني عالٍ».

ظاهرة تعديل الصور بواسطة الذكاء الاصطناعي في ميزان الأرقام

بقي القول إنه، وفقا لدراسات وتقارير دولية حديثة، باتت ظاهرة تعديل الصور بواسطة الذكاء الاصطناعي مرتبطة بآثار سلبية متزايدة على الأفراد والمجتمع، فقد أظهرت دراسة منشورة في دورية BMC Psychology (2023) أن الانخراط في تعديل الصور يرتبط بانخفاض الثقة بالنفس وزيادة المقارنة الجسدية، بما يؤدي إلى شعور متنامٍ بعدم الرضا عن المظهر. وفي جانب آخر، تشير الإحصاءات إلى اتساع نطاق الصور والفيديوهات المزيفة «Deepfake»، حيث كشف استطلاع دولي أن نحو 60% من المستهلكين واجهوا محتوى مزيفاً خلال العام الماضي، بينما لا تتجاوز دقة البشر في تمييز الصور الحقيقية من المزيفة 53% فقط، وهو ما يعادل تقريباً مستوى الصدفة، كما خلصت دراسات إلى أن أقل من 0.1% من المستخدمين استطاعوا التفريق بشكل كامل بين الصور والفيديوهات الحقيقية والمزيفة، وهذه الأرقام تكشف عن خطورة الظاهرة، ليس فقط على مستوى الهوية الفردية وتشويه الواقع، وإنما أيضاً في تعزيز معايير جمالية زائفة قد تترك آثاراً نفسية عميقة، خاصة بين الشباب والمراهقين.

اقرأ أيضاًمن السكك الحديدية إلى الذكاء الاصطناعي.. محطة بشتيل وتحقيق حلم النقل الذكي

النقل الذكي في مصر.. ثورة التكنولوجيا التي تعيد تشكيل شوارعنا

مقالات مشابهة

  • كيف يؤثر استخدام الذكاء الاصطناعي على الطلاب؟
  • كيف استخدمت إٍسرائيل الذكاء الاصطناعي سلاحا في حربها على غزة؟
  • أوبن ايه آي تكشف ملامح جيل جديد من الذكاء الاصطناعي فيDevDay
  • ضخ المال أساسي لتحسين أداء الذكاء الاصطناعي
  • دراسة.. يميل الناس إلى الغش عند استخدام الذكاء الاصطناعي
  • تحالف المليارات.. OpenAI وAMD تطلقان صفقة تاريخية في الذكاء الاصطناعي
  • هل يشجع الذكاء الاصطناعي البشر على الغش؟
  • تحولات في سوق الذكاء الاصطناعي: سهم إنفيديا يتأرجح بعد صفقة AMD مع OpenAI
  • " الأسهم الأمريكية " تفتح على ارتفاع بدعم الذكاء الاصطناعي
  • من صورة إلى وهم.. الوجه الآخر لتريند الذكاء الاصطناعي