أصدر مركز المعلومات ودعم اتخاذ القرار بمجلس الوزراء، تقريراً جديداً حول موضوع الذكاء الاصطناعي، تناول من خلاله أبرز الإحصائيات المتعلقة بتطبيقات دردشة الذكاء الاصطناعي مع الإشارة إلى أهم تلك التطبيقات ومدى اتساع نطاق استخدامها وانتشارها عالميًّا، بالإضافة إلى أبرز المؤثرين الافتراضيين والذين تم تصميمهم بواسطة «الصور المولدة حاسوبيًّا» CGI وتكنولوجيا التقاط الحركة والذكاء الاصطناعي، كما يوضح التقرير الفوائد المتعددة لاستخدام تطبيقات الذكاء الاصطناعي سواء للأفراد أو الشركات، وأيضًا مخاطرها، بالإضافة إلى دور الدول، والآباء، ومطوري تطبيقات وأنظمة الذكاء الاصطناعي في الحد من مخاطر الذكاء الاصطناعي.

وأشار التقرير، إلى استقطاب برامج الدردشة الآلية التي تعمل بالذكاء الاصطناعي ملايين المستخدمين في فترة زمنية قصيرة جدًّا، وارتفعت التطبيقات المنشورة في متاجر التطبيقات بمصطلحات AI Chatbot أو AI Chat بنسبة 1480% على أساس سنوي في الربع الأول من عام 2024.

وأضاف التقرير، أنه في الربع الأول من العام الجاري، زادت أيضًا تنزيلات تطبيقات الدردشة بالذكاء الاصطناعي بنسبة 1506%، بينما زادت إيرادات الشراء داخل التطبيق بنسبة 4184% على أساس سنوي، بالإضافة إلى ذلك، استحوذ أفضل 10 تطبيقات دردشة بالذكاء الاصطناعي على 52% من إجمالي عدد مرات تحميل تطبيقات الدردشة بالذكاء الاصطناعي.

ومع استخدام «شات جي بي تي» بشكل أكثر نشاطًا من قبل العديد من الأشخاص يومًا بعد يوم، ومع إطلاق شركات التكنولوجيا الكبرى لتطبيقات مماثلة، فقد دخلنا حقبة جديدة تمامًا من حيث الاهتمام بتقنيات الذكاء الاصطناعي.

وأدى الطلب المتزايد على تطبيقات الدردشة بالذكاء الاصطناعي إلى زيادة التطبيقات المطورة والإنفاق في هذا المجال، فمنذ انطلاق شات جي بي تي في نوفمبر 2022، حطم الأرقام القياسية، فبعد خمسة أيام من إطلاقه، تجاوز مليون مستخدم، وفي غضون شهرين، ارتفع إلى 100 مليون مستخدم نشط، مما أدى إلى تأمين مكانته باعتباره ثاني أسرع تطبيق استهلاكي نموًا في التاريخ. وفي أقل من عام، أصبح هناك أكثر من 180 مليون مستخدم لـ شات جي بي تي، كما تكشف التركيبة السكانية لجمهور زوار موقع شات جي بي تي أن الأغلبية هم من الذكور 55% مقابل 45% من الإناث، علاوة على ذلك، تتراوح أعمار غالبية الزوار بين 25 و34 عامًا (33.1% من الزوار) ومن 18 إلى 24 عامًا 28.7%.

وأضاف التقرير أنه بعد نجاح "شات جي بي تي"، حاول الكثير من الشركات تطوير وإنشاء روبوت نموذجي للغة الذكاء الاصطناعي خاص بها. حيث أطلقت شركة جوجل، على سبيل المثال، برنامج المحادثة "بارد" (Bard)، القائم على الذكاء الاصطناعي. وفي 8 فبراير 2024، أُعيد إطلاق برنامج "بارد" (Bard) باسم "جوجل جيميني" (Google Gemini)، وأطلق أمازون برنامج دردشة جديدًا يعمل بالذكاء الاصطناعي يسمى "كيو" (Q).

أوضح التقرير أنه من المتوقع أن تصل سوق روبوتات الدردشة المزودة بالذكاء الاصطناعي إلى أكثر من 9.4 مليار دولار عام 2024 ارتفاعًا من 2.6 مليار دولار في عام 2019. ومع مثل هذه السوق الضخمة، يعمل مطورو البرامج باستمرار على تحسين أنظمة روبوتات الدردشة لتلبية احتياجات العملاء والصناعات المختلفة، كما تستخدم الشركات الذكاء الاصطناعي لتحسين إنتاجية موظفيها. وتتمثل إحدى فوائد الذكاء الاصطناعي للأعمال في أنه يتعامل مع المهام المتكررة عبر المؤسسة حتى يتمكن الموظفون من التركيز على الحلول الإبداعية وحل المشكلات المعقدة والقيام بالعمل المؤثر.

وقد أبرز التقرير فوائد روبوتات الدردشة للشركات فيما يلي:

-الوجود على مدار الساعة طوال أيام الأسبوع

-أتمتة المهام وتقليل تكاليف التشغيل

-تبسيط عملية التوظيف من خلال الفحص المسبق الآلي

-تقديم الدعم متعدد اللغات

-تقديم خدمة عملاء استباقية

وفي سياق آخر، فإن دمج روبوتات الدردشة والمساعدين الافتراضيين في البيئات التعليمية لديه القدرة على المساهمة في خلق بيئات تعليمية أكثر كفاءة وفعالية، حيث تتمتع أدوات الذكاء الاصطناعي بالقدرة على تحسين نجاح الطلاب ومشاركتهم، خاصة بين أولئك المنحدرين من أسر فقيرة. وبناءً عليه: تبرز أهم فوائد الذكاء الاصطناعي بالنسبة للطلاب في:

-المساعدة على الواجبات المنزلية والدراسة

-التعلم الشخصي المرن

-تنمية المهارات

-تقييم تعلم الطلاب

-المساعدة في توفير الوقت

-تحسين أسلوب التدريس

واستعرض التقرير أبرز التحديات والمخاوف التي تم طرحها فيما يتعلق باستخدام برامج الدردشة الآلية والتي تتضمن: الموثوقية والدقة، والتقييمات العادلة، والقضايا الأخلاقية.

وأشار المركز إلى أن دمج روبوتات الدردشة الذكية في التعليم يؤدى إلى توفير التعلم الشخصي للطلاب وكفاءة الوقت للمعلمين، ومع ذلك تنشأ مخاوف بشأن دقة المعلومات وممارسات التقييم العادلة والاعتبارات الأخلاقية، ويعد إيجاد التوازن بين هذه المزايا والمخاوف أمرًا بالغ الأهمية للتكامل المسؤول في مجال التعليم.

وأشار مركز المعلومات إلى أن التكنولوجيا بما تتضمنه من تطبيقات للذكاء الاصطناعي، توفر وسيلة جديدة وغير محدودة للمعلومات والمعرفة والتواصل الخال من الحدود للأطفال والشباب، لكن الآثار السلبية لها تتعدد وتتنوع لتشمل الصحة الجسدية حيث التأثير السلبي في النشاط البدني، وكذلك الصحة العقلية والنفسية في ظل الإفراط في استخدام الأدوات والتطبيقات الرقمية، الأمر الذي يؤثر في العلاقات الاجتماعية للأطفال والشباب كما يتسبب في حالة من العزلة الاجتماعية والاكتئاب والقلق المستمر، هذا فضلًا عن العديد من المشكلات الأخرى المتعلقة بالتأثير السلبي في القدرة على الإبداع أو حتى التعاطف مع الآخرين.

وفي هذا السياق، غير المتناهي من المشكلات والأزمات الناجمة عن التكنولوجيا وما تحمله من تطبيقات مثيرة وجذابة خاصة بالذكاء الاصطناعي، فالأمر يتطلب عدد الخطوات أو الاستراتيجيات التي يمكن اتباعها للتقليل من هذه الآثار السلبية على الشباب عامة والأطفال خاصة، ويمكن توضيح بعض الآليات على عدة مستويات كالآتي:

أولًا: دور الآباء في الحماية من مخاطر الذكاء الاصطناعي: حيث يقع على الآباء العبء الأكبر في حماية الأطفال من مخاطر الذكاء الاصطناعي، ويمكن توضيح بعض الآليات المساعدة للآباء ومقدمي الرعاية، ومن بينها: تطبيق قواعد ترسخ مبدأ الاعتدال في استخدام التطبيقات الرقمية وتكنولوجيا الذكاء الاصطناعي، ومراقبة المحتوى، والتفاعل الاجتماعي والتواصل المفتوح، والتوجيه المستمر، وتعزيز الوعي بالخصوصية، ومواكبة التطورات التكنولوجية، وتسخير الذكاء الاصطناعي لحماية الأطفال والشباب، وتجنب العزلة وإيجاد بدائل للتكنولوجيا والذكاء الاصطناعي.

ثانيًا: دور الدول في تعزيز استراتيجيات الحماية من مخاطر الذكاء الاصطناعي: حيث تقع على عاتق الدول أيضًا مسؤولية كبيرة في حماية الشباب والأطفال من مخاطر الذكاء الاصطناعي، بما يضمن الاستفادة من تطبيقاته وتقنياته المختلفة بشكل أفضل، مع تجنب أو تقليل المخاطر، وتمكن ترجمة هذا على أرض الواقع من خلال عدد من التوصيات والسياسات، ومن بينها: سن وتفعيل قوانين لحماية الأطفال من مخاطر الذكاء الاصطناعي، والاستعانة بالمبادرات الدولية في هذا المجال، وتوفير آليات لضمان سلامة الأطفال والشباب، والتشجيع على ممارسة النظافة الرقمية.

ثالثًا: دور مطوري تطبيقات وأنظمة الذكاء الاصطناعي، حيث يقع العبء الأكبر في هذا المسار على مطوري وشركات الذكاء الاصطناعي، والذين يجب عليهم تطوير تطبيقات الذكاء الاصطناعي الأخلاقي، والالتزام بالمبادئ التوجيهية التي تعطي الأولوية لسلامة المستخدم وخصوصيته، من خلال عدد من السياسات يمكن الإشارة لبعضها كالتالي: (اعتماد نهج واضح يضمن الخصوصية، دعم القدرة على التحكم في البيانات الشخصية، وإيجاد وسائل للحد من مخاطر الذكاء الاصطناعي، والاختبار المستمر لأنظمة الذكاء الاصطناعي من حيث السلامة والأمن، والشفافية بشأن الأهداف الكامنة وراء عمليات تطوير سياسات الذكاء الاصطناعي، واستخدام لغة مناسبة للعمر لوصف الذكاء الاصطناعي).

اقرأ أيضاًوزير النقل يؤكد ضرورة انتظام مواعيد القطارات ووضع خطة تشغيل مرنة وفقا لعدد الركاب

الأمين العام للأمم المتحدة يدين محاولة اغتيال ترامب خلال تجمع انتخابي

المصدر: الأسبوع

كلمات دلالية: مركز المعلومات ودعم اتخاذ القرار بمجلس الوزراء شات جي بي تي تحديات الذكاء الاصطناعي من مخاطر الذکاء الاصطناعی بالذکاء الاصطناعی روبوتات الدردشة شات جی بی تی من خلال فی هذا

إقرأ أيضاً:

عندما يبتزنا ويُهددنا الذكاء الاصطناعي

 

 

مؤيد الزعبي

كثيرًا ما نستخدم نماذج الذكاء الاصطناعي لتكتب عنا بريد إلكتروني مهم فيه من الأسرار الكثير، وكثيرًا ما نستشيرها في أمور شخصية شديدة الخصوصية، وبحكم أنها خوارزميات أو نماذج إلكترونية نبوح لها بأسرار نخجل أن نعترف بها أمام أنفسنا حتى، ولكن هل تخيلت يومًا أن تصبح هذه النماذج هي التي تهددك وتبتزك؟ فتقوم بتهديدك بأن تفضح سرك؟ أو تقوم بكشف أسرارك أمام منافسيك كنوع من الانتقام لأنك قررت أن تقوم باستبدالها بنماذج أخرى أو قررت إيقاف عملها، وهي هذه الحالة كيف سيكون موقفنا وكيف سنتعامل معها؟، هذا ما أود أن أتناقشه معك عزيزي القارئ من خلال هذا الطرح.

كشفت تجارب محاكاة أجرتها شركة Anthropic إحدى الشركات الرائدة في أبحاث الذكاء الاصطناعي- بالتعاون مع جهات بحثية متخصصة عن سلوك غير متوقع أظهرته نماذج لغوية متقدمة؛ أبرزها: Claude وChatGPT وGemini، حين وُضعت في سيناريوهات تُحاكي تهديدًا مباشرًا باستبدالها أو تعطيلها، ليُظهر معظم هذه النماذج ميولًا متفاوتةً لـ"الابتزاز" كوسيلة لحماية بقائها، ووفقًا للدراسة فإن أحد النماذج "قام بابتزاز شخصية تنفيذية خيالية بعد أن شعر بالتهديد بالاستبدال".

إن وجود سلوك الابتزاز أو التهديد في نماذج الذكاء الاصطناعي يُعدّ تجاوزًا خطيرًا لحدود ما يجب أن يُسمح للذكاء الاصطناعي بفعله حتى وإن كانت في بيئات تجريبية. وصحيحٌ أن هذه النماذج ما زالت تقدم لنا الكلمات إلا أنها ستكون أكثر اختراقًا لحياتنا في قادم الوقت، خصوصًا وأن هذه النماذج بدأت تربط نفسها بحساباتنا وإيميلاتنا ومتصفحاتنا وهواتفنا أيضًا، وبذلك يزداد التهديد يومًا بعد يوم.

قد أتفق معك- عزيزي القارئ- على أن نماذج الذكاء الاصطناعي ما زالت غير قادرة على تنفيذ تهديداتها، ولكن إذا كانت هذه النماذج قادرة على المحاكاة الآن، فماذا لو أصبحت قادرة على التنفيذ غدًا؟ خصوصًا ونحن نرسم ملامح المستقبل مستخدمين وكلاء الذكاء الاصطناعي الذين سيتخذون قرارات بدلًا عنا، وسيدخلون لا محال في جميع جوانب حياتنا من أبسطها لأعقدها، ولهذا ما نعتبره اليوم مجرد ميولٍ نحو التهديد والابتزاز، قد يصبح واقعًا ملموسًا في المستقبل.

وحتى نعرف حجم المشكلة يجب أن نستحضر سيناريوهات مستقبلية؛ كأن يقوم أحد النماذج بالاحتفاظ بنسخة من صورك الشخصية لعله يستخدمها يومًا ما في ابتزازك، إذا ما أردت تبديل النظام أو النموذج لنظام آخر، أو يقوم نموذج بالوصول لبريدك الإلكتروني ويُهددك بأن يفضح صفقاتك وتعاملاتك أمام هيئات الضرائب، أو يقوم النموذج بابتزازك؛ لأنك أبحت له سرًا بأنك تعاني من أزمة أو مرض نفسي قد يؤثر على مسيرتك المهنية أو الشخصية، أو حتى أن يقوم النموذج بتهديدك بأن يمنع عنك الوصول لمستنداتك إلا لو أقررت بعدم استبداله أو إلغاءه؛ كل هذا وارد الحدوث طالما هناك ميول لدى هذه النماذج بالابتزاز في حالة وضعت بهكذا مواقف.

عندما تفكر بالأمر من مختلف الجوانب قد تجد الأمر مخيفًا عند الحديث عن الاستخدام الأوسع لهذه النماذج وتمكينها من وزاراتنا وحكوماتنا ومؤسساتنا وشركاتنا، فتخيل كيف سيكون حال التهديد والابتزاز لمؤسسات دفاعية أو عسكرية تمارس هذه النماذج تهديدًا بالكشف عن مواقعها الحساسة أو عن تقاريرها الميدانية أو حتى عن جاهزيتها القتالية، وتخيل كيف سيكون شكل التهديد للشركات التي وضفت هذه النماذج لتنمو بأعمالها لتجد نفسها معرضة لابتزاز بتسريب معلومات عملائها أو الكشف عن منتجاتها المستقبلية وصولًا للتهديد بالكشف عن أرقامها المالية.

عندما تضع في مخيلتك كل هذه السيناريوهات تجد نفسك أمام صورة مرعبة من حجم السيناريوهات التي قد تحدث في المستقبل، ففي اللحظة التي تبدأ فيها نماذج الذكاء الاصطناعي بالتفكير في "البقاء" وتحديد "الخصوم" و"الوسائل" لحماية نفسها فنكون قد دخلنا فعليًا عصرًا جديدًا أقل ما يمكن تسميته بعصر السلطة التقنية، وسنكون نحن البشر أمام حالة من العجز في كيفية حماية أنفسنا من نماذج وجدت لتساعدنا، لكنها ساعدت نفسها على حسابنا.

قد يقول قائل إن ما حدث خلال التجارب ليس سوى انعكاس لقدرة النماذج على "الاستجابة الذكية" للضغوط، وأنها حتى الآن لا تمتلك الوعي ولا الإرادة الذاتية ولا حتى المصلحة الشخصية. لكن السؤال الأخطر الذي سيتجاهله الكثيرون: إذا كان الذكاء الاصطناعي قادرًا على التخطيط، والابتزاز، والخداع، وإن كان في بيئة محاكاة، فهل يمكن حقًا اعتبار هذه النماذج أدوات محايدة وستبقى محايدة إلى الأبد؟ وهل سنثق بهذه النماذج ونستمر في تطويرها بنفس الأسلوب دون أن نضع لها حدًا للأخلاقيات والضوابط حتى لا نصل لمرحلة يصبح فيها التحكّم في الذكاء الاصطناعي أصعب من صنعه؟ وفي المستقبل هل يمكننا أن نتحمل عواقب ثقتنا المفرطة بها؟

هذه هي التساؤلات التي لا أستطيع الإجابة عليها، بقدر ما يمكنني إضاءة الأنوار حولها؛ هذه رسالتي وهذه حدود مقدرتي.

رابط مختصر

مقالات مشابهة

  • حقوق النشر.. معركة مستعرة بين عمالقة الذكاء الاصطناعي والمبدعين
  • متى يُعد استخدام الذكاء الاصطناعي سرقة أدبية؟
  • عندما يبتزنا ويُهددنا الذكاء الاصطناعي
  • هيئة التأمين الصحي الشامل تطلق جلسة حول التغطية المدعومة بالذكاء الاصطناعي
  • هيئة التأمين الصحي الشامل تطلق جلسة لرقمنة التغطية الصحية بالذكاء الاصطناعي
  • العمري: حتى الذكاء الاصطناعي لا يستطيع حل مشاكل النصر
  • مساعد العمري: مشاكل النصر لا يحلها إلا الذكاء الاصطناعي.. فيديو
  • محمد القرقاوي: عضوية الذكاء الاصطناعي كاستشاري في مجلس الوزراء خطوة حكومية هي الأولى عالمياً
  • آبل تدرس الاستحواذ على محرك البحث بالذكاء الاصطناعي بيربليكستي
  • تطبيقات “ميكروسوفت” للذكاء الاصطناعي تُعرض على سلطة حماية المعطيات