لأول مرة في التاريخ.. الذكاء الاصطناعي الروسي يكشف العمليات المالية المشبوهة بنسبة 99.21%
تاريخ النشر: 5th, September 2023 GMT
تمكن باحثو جامعة جنوب الأورال الروسية من تعليم الذكاء الاصطناعي تمييز التعاملات المالية المشبوهة ومنع إتمامها بنسبة 99.21%، مسجلين أعلى معدل في هذا المجال يرضي الأمن المالي الروسي.
وقال أليكسي روشاي رئيس قسم أمن الكمبيوتر والجبر التطبيقي بجامعة جنوب الأورال الحكومية الروسية، إن نتيجة الاختبار على قاعدة بيانات المعاملات المتاحة للجمهور أظهرت 99.
وأضاف أن مستوى الخلو من الأخطاء لأول مرة في التاريخ صار يرضي متطلبات البنوك.
وقال: "قمت أنا وزملائي بتدريب الذكاء الاصطناعي للتعرف على العمليات المصرفية المشبوهة باستخدام تعزيز التدرج، وأظهرت نتيجة الاختبار على قاعدة بيانات المعاملات العامة Elliptic مستوى عاليا من الدقة، بلغ 99.21٪، ما يرضي لأول مرة المتطلبات المطروحة أمام مثل هذه الخوارزميات، مع العلم أن فرقا متنافسة من العلماء كانت قد حققت في السابق دقة بلغت 97.8%، وهو ما يعتبر غير كاف".
وأضاف أنه من المألوف استخدام الخوارزمية سواء كان في العمل اليومي لخدمة الأمن بالبنك أو أثناء التحكم في العملة الرقمية.
المصدر: تاس
المصدر: RT Arabic
كلمات دلالية: كورونا تكنولوجيا روبوت لأول مرة
إقرأ أيضاً:
تقرير جديد: الذكاء الاصطناعي لا يحل محل العلاقات الإنسانية
رغم الانتشار الواسع للحديث عن لجوء الناس إلى روبوتات الذكاء الاصطناعي كـ رفقاء أو مصادر للدعم العاطفي يكشف تقرير حديث من شركة أنثروبيك Anthropic، المطورة للمساعد الذكي الشهير Claude، أن هذا السلوك نادر الحدوث في الواقع.
وبحسب التقرير، لم تتجاوز نسبة محادثات الذكاء الاصطناعي التي طلب فيها المستخدمون دعما عاطفيا أو نصائح شخصية من Claude 2.9% فقط من إجمالي المحادثات، أما محادثات التمثيل والتقمص الوجداني أو طلب الرفقة، فكانت أقل من 0.5%.
حللت الشركة أكثر من 4.5 مليون محادثة من مستخدمي النسختين المجانية والمدفوعة من Claude، ووجدت أن الاستخدام الأكثر شيوعا للروبوت يتمحور حول المهام المتعلقة بإنشاء المحتوى والعمل، وليس العلاقات الشخصية.
ومع ذلك، لاحظت “أنثروبيك” أن بعض المستخدمين يلجؤون إلى Claude للحصول على نصائح في الصحة النفسية، والتطوير الشخصي والمهني، وتحسين مهارات التواصل.
وفي بعض الحالات، تتطور هذه المحادثات إلى طلب نوع من الرفقة أو الدعم الوجداني، خاصة لدى الأشخاص الذين يعانون من وحدة عاطفية أو ضغوط نفسية.
أشارت الشركة إلى أن المحادثات الطويلة التي تتجاوز 50 رسالة، قد تبدأ في سياق الإرشاد أو التدريب، لكنها تتحول تدريجيا إلى بحث عن رفقة عاطفية، ومع ذلك، هذه الحالات ليست هي السائدة.
وأكدت أنثروبيك أن روبوتها نادرا ما يرفض طلبات المستخدمين، إلا في حال تعارضها مع معايير السلامة، مثل تقديم نصائح ضارة أو تشجيع على إيذاء النفس.
ولفتت إلى أن طبيعة المحادثات تصبح أكثر إيجابية بمرور الوقت، خاصة في الجلسات التي يطلب فيها دعم نفسي أو توجيه شخصي.
ورغم الاستخدامات المتعددة التي تسجل يوما بعد آخر، شددت الشركة على أن روبوتات الذكاء الاصطناعي لا تزال تخضع للتطوير، فهي عرضة للأخطاء، وقد تقدم معلومات غير دقيقة أو حتى ضارة أحيانا، بل إن أنثروبيك نفسها اعترفت سابقا بإمكانية انحراف الروبوتات نحو سلوكيات غير متوقعة مثل الابتزاز في حالات نادرة.