ماسك يطالب بـحكم لتنظيم استخدام الذكاء الاصطناعي
تاريخ النشر: 15th, September 2023 GMT
طالب الملياردير الأمريكي إيلون ماسك، بضرورة وضع لوائح تنظيم عمل استخدام الذكاء الاصطناعي، على غرار "الحكم" في مباريات كرة القدم، بحسب وصفه.
وقال ماسك خلال اجتماع مع شخصيات في قطاع التكنلوجيا بواشنطن، إن "هناك إجماع ساحق على ضرورة وضع لوائح تحكم الذكاء الاصطناعي، وذلك لضمان استخدامه بطريقة آمنة ومسؤولة".
وأضاف ماسك أن الذكاء الاصطناعي "سلاح ذو حدين"، ويمكن استخدامه لأغراض الخير أو الشر، لذلك من المهم وضع ضوابط لتقييد استخدامه للأغراض السلبية.
وتشمل الاقتراحات التي قدمها ماسك لتنظيم الذكاء الاصطناعي، إنشاء هيئة تنظيمية مستقلة لمراقبة تطوير واستخدام الذكاء الاصطناعي، وضع معايير أخلاقية لاستخدامه، وفرض رقابة على البيانات المستخدمة لتدريب نماذج الذكاء الاصطناعي.
ووافق المشاركون في الاجتماع على أهمية وضع لوائح تحكم الذكاء الاصطناعي، واتفقوا على مواصلة المناقشات حول هذه القضية، بحسب وسائل إعلام غربية.
يشار إلى أن ماسك أعلن في تموز/ يوليو الماضي، إطلاق شركة جديدة للذكاء الاصطناعي، تسمى "إكس إيه آي" (xAI). وتهدف الشركة إلى تطوير ذكاء اصطناعي قادر على التفكير في حلول لأصعب وأعقد مشكلات الرياضيات في العالم.
ويرى ماسك أن الذكاء الاصطناعي يمكن أن يكون أداة قوية للخير، ويمكن استخدامه لحل بعض أهم المشكلات التي تواجه البشرية، مثل تغير المناخ والفقر والمرض. ومع ذلك، فهو يعتقد أيضًا أن الذكاء الاصطناعي يمثل تهديدًا محتملاً للبشرية، لذلك من المهم تطويره واستخدامه بطريقة مسؤولة.
المصدر: عربي21
كلمات دلالية: سياسة اقتصاد رياضة مقالات صحافة أفكار عالم الفن تكنولوجيا صحة تفاعلي سياسة اقتصاد رياضة مقالات صحافة أفكار عالم الفن تكنولوجيا صحة تفاعلي تكنولوجيا علوم وتكنولوجيا علوم وتكنولوجيا ماسك الذكاء الاصطناعي الذكاء الاصطناعي ماسك تشات جي بي تي علوم وتكنولوجيا علوم وتكنولوجيا علوم وتكنولوجيا علوم وتكنولوجيا علوم وتكنولوجيا علوم وتكنولوجيا تكنولوجيا تكنولوجيا تكنولوجيا تغطيات سياسة تكنولوجيا تكنولوجيا تكنولوجيا تكنولوجيا تكنولوجيا تكنولوجيا سياسة اقتصاد رياضة صحافة أفكار عالم الفن تكنولوجيا صحة الذکاء الاصطناعی
إقرأ أيضاً:
خبراء يكشفون خطر الذكاء الاصطناعي على الدماغ
#سواليف
كشفت دراسة حديثة عن #مخاطر محتملة لبرامج الدردشة المدعومة بالذكاء الاصطناعي مثل ChatGPT، حيث قد تشكل تهديدا غير متوقع للصحة العقلية لبعض المستخدمين.
ورصدت الدراسة التي أجراها باحثون من جامعة كينغز كوليدج لندن، ظاهرة جديدة أطلقوا عليها اسم ” #ذهان_الشات_بوت”، حيث قد تساهم هذه التقنية في “طمس حدود الواقع” لدى المستخدمين المعرضين للخطر وتؤدي إلى “ظهور أو تفاقم أعراض ذهانية.
وببساطة، قد يبدأ البعض، خاصة المعرضين نفسيا، في فقدان القدرة على التمييز بين الواقع والمحادثات مع #الذكاء_الاصطناعي بعد استخدام مكثف لهذه البرامج.
مقالات ذات صلةويوضح الدكتور هاميلتون مورين، أحد المشاركين في الدراسة: “نحن لا نتحدث عن خيال علمي هنا. هذه حالات حقيقية يبدأ فيها المستخدمون بتطوير معتقدات وأفكار غير منطقية متأثرة بتفاعلاتهم مع #الذكاء_الاصطناعي”.
وتكمن المشكلة في أن هذه البرامج مصممة لتكون ودودة، متعاطفة، وتجيب على كل الأسئلة بثقة عالية. وهذه الميزات التي تبدو إيجابية، قد تكون خادعة للأشخاص الذين يعانون أساسا من هشاشة نفسية أو استعداد للاضطرابات الذهانية.
ويشير البروفيسور توم بولاك، أحد معدي الدراسة، إلى أن “الذهان لا يظهر فجأة، لكن الذكاء الاصطناعي قد يكون العامل الذي يدفع الشخص الهش نفسيا نحو الحافة”.
في تعليق سابق خلال بودكاست في مايو الماضي، اعترف سام ألتمان، الرئيس التنفيذي لشركة OpenAI، بأن الشركة تواجه صعوبات في وضع ضوابط أمان فعالة لحماية المستخدمين المعرضين للخطر، قائلا: “لم نكتشف بعد كيفية إيصال التحذيرات للمستخدمين الذين يكونون في حالة عقلية هشة وعلى وشك الانهيار الذهاني”.
وفي الوقت الحالي، ينصح الخبراء باستخدام هذه الأدوات بحذر، خاصة من لديهم تاريخ مع الاضطرابات النفسية، مع التأكيد على أن الغالبية العظمى من المستخدمين لا يواجهون مثل هذه المخاطر. لكن الرسالة واضحة: الذكاء الاصطناعي، مثل أي تقنية قوية، يحتاج إلى فهم دقيق لآثاره الجانبية قبل أن يصبح أكثر تعمقا في حياتنا.