د. بندر آل مشاري يؤكد دور الذكاء الاصطناعي في دعم رجل الأمن
تاريخ النشر: 19th, December 2023 GMT
قال مساعد وزير الداخلية للشؤون التقنية د. بندر آل مشاري، خلال ملتقى الحكومة الرقمية اليوم: "رجل الأمن بالتقنية والذكاء الاصطناعي سيكون أقدر على أداء مهمته، وهذا لا يقلل من أهمية الحاجة لرجل الأمن البشري".
وتابع: "غرف العمليات التقليدية المعروفة ستخرج أيضًا من مفهومها التقليدي للمفهوم الجديد، وسنجد غرف العمليات الافتراضية وغرف العمليات الميدانية".
وأكمل: "الذكاء الاصطناعي يعتمد على وفرة البيانات ودقتها، على الخوارزميات، على القدرة على الاستباق في الوصول للحدث قبل أن يبلغك الآخرون عنه، والقدرة على التعامل مع الحدث، والتفوق على الطرف الآخر".
فيديو | مساعد وزير الداخلية للشؤون التقنية: عبر استخدام التقنية رجل الأمن سيكون أقدر على أداء مهمته #ملتقى_الحكومة_الرقمية #الإخبارية pic.twitter.com/IgsIx9N7iO— قناة الإخبارية (@alekhbariyatv) December 19, 2023ملتقى الحكومة الرقمية
تنظم هيئة الحكومة الرقمية الملتقى بهدف إبراز إنجازات الجهات الحكومية، واستعراض قصص نجاحها، وتمكين أقطاب المجتمع الرقمي من اللقاء والتواصل، وتبادل الخبرات، وبناء الشراكات.
إضافةً إلى مناقشة التحديات والتوجهات المستقبلية للحكومة الرقمية، وبحث أفضل الممارسات التقنية الحديثة، والاطلاع على الفرص الاستثمارية في المملكة.
المصدر: صحيفة اليوم
كلمات دلالية: اليوم الدمام ملتقى الحكومة الرقمية الذكاء الاصطناعي رجل الامن الحكومة الرقمية المملكة العربية السعودية الحکومة الرقمیة
إقرأ أيضاً:
خبراء يكشفون خطر الذكاء الاصطناعي على الدماغ
#سواليف
كشفت دراسة حديثة عن #مخاطر محتملة لبرامج الدردشة المدعومة بالذكاء الاصطناعي مثل ChatGPT، حيث قد تشكل تهديدا غير متوقع للصحة العقلية لبعض المستخدمين.
ورصدت الدراسة التي أجراها باحثون من جامعة كينغز كوليدج لندن، ظاهرة جديدة أطلقوا عليها اسم ” #ذهان_الشات_بوت”، حيث قد تساهم هذه التقنية في “طمس حدود الواقع” لدى المستخدمين المعرضين للخطر وتؤدي إلى “ظهور أو تفاقم أعراض ذهانية.
وببساطة، قد يبدأ البعض، خاصة المعرضين نفسيا، في فقدان القدرة على التمييز بين الواقع والمحادثات مع #الذكاء_الاصطناعي بعد استخدام مكثف لهذه البرامج.
مقالات ذات صلةويوضح الدكتور هاميلتون مورين، أحد المشاركين في الدراسة: “نحن لا نتحدث عن خيال علمي هنا. هذه حالات حقيقية يبدأ فيها المستخدمون بتطوير معتقدات وأفكار غير منطقية متأثرة بتفاعلاتهم مع #الذكاء_الاصطناعي”.
وتكمن المشكلة في أن هذه البرامج مصممة لتكون ودودة، متعاطفة، وتجيب على كل الأسئلة بثقة عالية. وهذه الميزات التي تبدو إيجابية، قد تكون خادعة للأشخاص الذين يعانون أساسا من هشاشة نفسية أو استعداد للاضطرابات الذهانية.
ويشير البروفيسور توم بولاك، أحد معدي الدراسة، إلى أن “الذهان لا يظهر فجأة، لكن الذكاء الاصطناعي قد يكون العامل الذي يدفع الشخص الهش نفسيا نحو الحافة”.
في تعليق سابق خلال بودكاست في مايو الماضي، اعترف سام ألتمان، الرئيس التنفيذي لشركة OpenAI، بأن الشركة تواجه صعوبات في وضع ضوابط أمان فعالة لحماية المستخدمين المعرضين للخطر، قائلا: “لم نكتشف بعد كيفية إيصال التحذيرات للمستخدمين الذين يكونون في حالة عقلية هشة وعلى وشك الانهيار الذهاني”.
وفي الوقت الحالي، ينصح الخبراء باستخدام هذه الأدوات بحذر، خاصة من لديهم تاريخ مع الاضطرابات النفسية، مع التأكيد على أن الغالبية العظمى من المستخدمين لا يواجهون مثل هذه المخاطر. لكن الرسالة واضحة: الذكاء الاصطناعي، مثل أي تقنية قوية، يحتاج إلى فهم دقيق لآثاره الجانبية قبل أن يصبح أكثر تعمقا في حياتنا.