روسيا – أوضح خبير تكنولوجيا المعلومات الروسي روديون قديروف إن الشبكات العصبية يمكن أن تنتج بيانات خاطئة.

أدرجت الشبكة العصبية ChatGPT الأسبوع الماضي أستاذ القانون جوناثان تورلي على قائمة المحامين المزعوم تورطهم في قصة غير قانونية، لكن هذه الاتهامات باطلة، والمعلومات مأخوذة من مقال غير موجود في صحيفة “واشنطن بوست”.

وتحدث خبير تكنولوجيا المعلومات الروسي روديون قديروف لصحيفة “غازيتا. رو” عن ​​المعلومات المضللة المتعلقة باستخدام الشبكات العصبية.

وأشار المتخصص إلى أن مشكلة المحامي “ليست مجرد حادثة معزولة”، بل هي “مثال على قدرة النماذج اللغوية الحديثة، مثل ChatGPT من OpenAI، توليد معلومات كاذبة تعرض سمعة الناس وحتى حياتهم للخطر”. ولاحظ قديروف أن الأمر المثير للقلق بشكل خاص هو أن “الهلوسة” المتعلقة بالشبكات العصبية أصبحت طبيعية وتنشأ بسبب خصوصيات عملها.

وأوضح الخبير أن مثل هذه الإخفاقات تحدث عندما تبدأ نماذج الذكاء الاصطناعي في محاولة للإجابة على أي طلب، بـ”اصطناع” المعلومات. ويحدث هذا عندما يتطلب الأمر حجما معينا من المعلومات، بينما لا تحتوي الشبكة العصبية على بيانات كافية لإكماله.

وأوضح المتخصص: “على سبيل المثال، إذا طلبت من شبكة عصبية ذكر 10 أسماء مرتبطة بحدث ما، فيمكنها أن تأتي بسبعة خبراء، حتى لو كانت على علم في الواقع بثلاثة أسماء فقط”.

ولا تقتصر المشكلة المتعلقة بهذا النوع من المعلومات الخاطئة على النص فقط. وفي مارس الماضي، نشرت تصور يُزعم أنها تُظهر اعتقال الرئيس الأمريكي السابق دونالد ترامب. وتم إنشاء هذه الصور المزيفة باستخدام الذكاء الاصطناعي، وبعد ذلك انتشرت على شبكات التواصل الاجتماعي.

لقد سلط الخبير الضوء أيضا على عدم وجود ضوابط فعالة من جانب منصات التواصل الاجتماعي، فضلا عن الحاجة إلى معايير ولوائح أكثر صرامة لاستخدام الذكاء الاصطناعي في مثل هذه المجالات الحساسة”. ودعا الناس إلى الاهتمام بجودة المحتوى والانتباه إلى التفاصيل لأن جودة النسخة المزيفة غالبا ما تكون أقل من جودة المحتوى الأصلي.

المصدر: كومسومولسكايا برافدا

المصدر: صحيفة المرصد الليبية

إقرأ أيضاً:

خبير: لا يمكن الإعتماد على الذكاء الإصطناعي في تحديد المرض والعلاج

أكد الدكتور أشرف عمر، أستاذ الكبد والجهاز الهضمي، بكلية الطب والقصر العيني، أن الذكاء الاصطناعي يمنح للمريض إجابة مختصرة على قدر السؤال وليس ملم بحالة المريض مثل الطبيب ولايمكن الاعتماد عليه لتشخيص المرض والأدوية .

وقال أشرف عمر، خلال لقاء له لبرنامج “الحكاية”، عبر فضائية “إم بي سي مصر”، أن الذكاء الاصطناعي لايمكن أن يكون ملم بالحالة الإنسانية أو المعلوماتية للمريض وبالتالى تشخيصه يعتمد على الخطأ.

وتابع أستاذ الكبد والجهاز الهضمي، بكلية الطب بالقصر العيني، أن هناك علاجات بناء على استشارات الذكاء الإصطناعي، ولكنه من المكن أن تكون غير متوفرة في الدولة، لأنه يعتمد على المسمى العلمي فقط، وفي بعض الحالات لا يمكن للذكاء الإصطناعي معرفة أسامي بعض الأدوية. 
 

طباعة شارك أشرف عمر الكبد الجهاز الهضمي القصر العيني الذكاء الاصطناعي

مقالات مشابهة

  • شركة تبني مختبرا تحت الأرض يدرب الذكاء الاصطناعي على فهم الإنسان دون كلام
  • خبير: لا يمكن الإعتماد على الذكاء الإصطناعي في تحديد المرض والعلاج
  • شركة عالمية تُطمئن: الذكاء الاصطناعي لن يكون بديلاً للإنسان في كل الوظائف
  • 3 أمور ترفع قدرك عند الله.. مركز الأزهر يوضح
  • خبير روسي: الأزمة الأفغانية الباكستانية قد تشعل حربا طاحنة بشرق آسيا
  • خبير روسي: حسم الصراع الأوكراني الروسي لا يزال بعيدًا
  • تجمع بياناتك بسرية.. كيف تحمي نفسك من أدوات الذكاء الاصطناعي؟ -فيديو
  • كيف تحمي نفسك من أدوات الذكاء الاصطناعي التي تجمع بياناتك الشخصية (فيديو)
  • خبير تكنولوجي: ما نراه من الذكاء الاصطناعي مجرد 10% مما سيحدث
  • جوجل تُطلق Gemini للآيفون والآيباد.. الذكاء الاصطناعي يصل متصفحك