خبير روسي يوضح مدى خطورة الشبكات العصبية على سمعة الإنسان
تاريخ النشر: 14th, August 2024 GMT
روسيا – أوضح خبير تكنولوجيا المعلومات الروسي روديون قديروف إن الشبكات العصبية يمكن أن تنتج بيانات خاطئة.
أدرجت الشبكة العصبية ChatGPT الأسبوع الماضي أستاذ القانون جوناثان تورلي على قائمة المحامين المزعوم تورطهم في قصة غير قانونية، لكن هذه الاتهامات باطلة، والمعلومات مأخوذة من مقال غير موجود في صحيفة “واشنطن بوست”.
وأشار المتخصص إلى أن مشكلة المحامي “ليست مجرد حادثة معزولة”، بل هي “مثال على قدرة النماذج اللغوية الحديثة، مثل ChatGPT من OpenAI، توليد معلومات كاذبة تعرض سمعة الناس وحتى حياتهم للخطر”. ولاحظ قديروف أن الأمر المثير للقلق بشكل خاص هو أن “الهلوسة” المتعلقة بالشبكات العصبية أصبحت طبيعية وتنشأ بسبب خصوصيات عملها.
وأوضح الخبير أن مثل هذه الإخفاقات تحدث عندما تبدأ نماذج الذكاء الاصطناعي في محاولة للإجابة على أي طلب، بـ”اصطناع” المعلومات. ويحدث هذا عندما يتطلب الأمر حجما معينا من المعلومات، بينما لا تحتوي الشبكة العصبية على بيانات كافية لإكماله.
وأوضح المتخصص: “على سبيل المثال، إذا طلبت من شبكة عصبية ذكر 10 أسماء مرتبطة بحدث ما، فيمكنها أن تأتي بسبعة خبراء، حتى لو كانت على علم في الواقع بثلاثة أسماء فقط”.
ولا تقتصر المشكلة المتعلقة بهذا النوع من المعلومات الخاطئة على النص فقط. وفي مارس الماضي، نشرت تصور يُزعم أنها تُظهر اعتقال الرئيس الأمريكي السابق دونالد ترامب. وتم إنشاء هذه الصور المزيفة باستخدام الذكاء الاصطناعي، وبعد ذلك انتشرت على شبكات التواصل الاجتماعي.
لقد سلط الخبير الضوء أيضا على عدم وجود ضوابط فعالة من جانب منصات التواصل الاجتماعي، فضلا عن الحاجة إلى معايير ولوائح أكثر صرامة لاستخدام الذكاء الاصطناعي في مثل هذه المجالات الحساسة”. ودعا الناس إلى الاهتمام بجودة المحتوى والانتباه إلى التفاصيل لأن جودة النسخة المزيفة غالبا ما تكون أقل من جودة المحتوى الأصلي.
المصدر: كومسومولسكايا برافدا
المصدر: صحيفة المرصد الليبية
إقرأ أيضاً:
خبير: لا يمكن الإعتماد على الذكاء الإصطناعي في تحديد المرض والعلاج
أكد الدكتور أشرف عمر، أستاذ الكبد والجهاز الهضمي، بكلية الطب والقصر العيني، أن الذكاء الاصطناعي يمنح للمريض إجابة مختصرة على قدر السؤال وليس ملم بحالة المريض مثل الطبيب ولايمكن الاعتماد عليه لتشخيص المرض والأدوية .
وقال أشرف عمر، خلال لقاء له لبرنامج “الحكاية”، عبر فضائية “إم بي سي مصر”، أن الذكاء الاصطناعي لايمكن أن يكون ملم بالحالة الإنسانية أو المعلوماتية للمريض وبالتالى تشخيصه يعتمد على الخطأ.
وتابع أستاذ الكبد والجهاز الهضمي، بكلية الطب بالقصر العيني، أن هناك علاجات بناء على استشارات الذكاء الإصطناعي، ولكنه من المكن أن تكون غير متوفرة في الدولة، لأنه يعتمد على المسمى العلمي فقط، وفي بعض الحالات لا يمكن للذكاء الإصطناعي معرفة أسامي بعض الأدوية.