عارف بن خميس الفزاري

persware@gmail.com

 

في ظل الطفرات المُتلاحقة في مجال الذّكاء الاصطناعيّ، تتزايد الحاجة إلى ضرورة إنشاء مُنظمة دولية مُستقلة تُعنى بتنظيم هذا المجال الآخذ في التوسع بشكل غير مسبوق. فبينما تحقق أنظمة الذّكاء الاصطناعيّ إنجازات مُذهلة في قطاعات متعددة، من الرعاية الصحية إلى أنظمة الدفاع، تتنامى المخاوف بشأن التهديدات الأخلاقية والقانونية وحتى الوجودية التي قد تنشأ عن غياب إطار دولي موحد يضبط هذا التطور.

وقد عبّر عن هذه المخاوف البروفيسور جيفري هينتون (Geoffrey Hinton)، أحد مؤسسي تقنيات التعلم العميق، محذرًا من أنّ الذّكاء الاصطناعيّ قد يصبح أذكى من البشر، وأنه "من غير الواضح إن كنَّا سنتمكن من السيطرة عليه لاحقًا" (Vincent, 2023).

تصريحات هينتون تعكس قلقًا متناميًا بين خبراء الصناعة بشأن تسارع الذّكاء الاصطناعيّ وتجاوزه للقدرة التنظيمية الحالية، وهو ما يجعل الحاجة إلى تدخل دولي أكثر من أيّ وقت مضى.

لقد بات الذكاء الاصطناعي جزءًا لا يتجزأ من حياتنا اليومية. فهو يُستخدم في المستشفيات لتشخيص الأمراض، وفي المؤسسات الأمنية لرصد التهديدات وفي الأنظمة التعليمية لتحليل أداء الطلاب وتقديم محتوى مخصص لهم، بل وحتى في أنظمة العدالة لاتخاذ قرارات متعلقة بالإفراج أو التوصية بالأحكام. لكن هذا الانتشار السريع ترافقه تحديات عميقة ترتبط بالخصوصية والتمييز وشفافية الخوارزميات وغياب المساءلة القانونية في حال وقوع ضرر. السؤال الذي يُطرح اليوم: من يملك سلطة رسم الخطوط الحمراء لاستخدام الذكاء الاصطناعي؟ هل يُترك الأمر لتقديرات كل دولة على حدة، أم أن الأمر بات يستوجب تدخلاً دوليًا شاملًا، يضمن الاستخدام الآمن والعادل والمسؤول لهذه التقنية؟ في الواقع تعكف العديد من الدول الكبرى وتتنافس على تطوير نماذج متقدمة من الذكاء الاصطناعي، منها ما يمتلك قدرات توليدية قادرة على كتابة النصوص وإنتاج الصور، بل وحتى محاكاة المشاعر. هذه النماذج، إذا تُركت دون رقابة قد تُستخدم في التزييف العميق والتحريض السياسي والتلاعب بالأسواق، أو حتى إدارة أنظمة أسلحة مُميتة ذاتيًا دون تدخل بشري مباشر.

وفي ظل هذه التحديات، بدأت بعض التكتلات مثل الاتحاد الأوروبي في وضع تشريعات تنظم الذّكاء الاصطناعيّ، مثل قانون الذّكاء الاصطناعيّ الأوروبي (AI Act)، الذي يُعد من أوائل المحاولات الجادة لتصنيف المخاطر وفرض معايير للشفافية والمساءلة وفق تكتلات سياسية واقتصادية والذي دخل حيز التنفيذ في أغسطس 2024م. كما تبنّت منظمة اليونسكو في عام 2021 توصيات أخلاقية بشأن الذّكاء الاصطناعيّ والتي ركزت على احترام حقوق الإنسان وتعزيز التنمية المستدامة. غير أن هذه المبادرات، رغم أهميتها تبقى ذات طابع إقليمي أو توجيهي غير ملزم للغير، مما يبرز الحاجة إلى كيان دولي يتمتع بصلاحيات أوسع.  وفي هذا السياق، حذرت دراسة صادرة عن جامعة أكسفورد ومراكز بحثية دولية من أن الاستخدامات الخبيثة للذكاء الاصطناعي ستتزايد بشكل خطير في غياب تنظيم دولي فعال.

وقد أكدت الدراسة- التي حملت عنوان The Malicious Use of Artificial Intelligence: Forecasting, Prevention, and Mitigation، والصادرة عن معهد مستقبل الإنسانية بجامعة أكسفورد (Future of Humanity Institute, University of Oxford)- على أن المخاطر تشمل التضليل الإعلامي، والتحكم الآلي في الأسلحة، والهجمات السيبرانية المتقدمة، داعية إلى إنشاء منظمة دولية تعزز التعاون بين الدول، وتضع أطرًا للوقاية والتخفيف من التهديدات المستقبلية. وإلى جانب التهديدات السياسية والأمنية، تناولت ذات الدراسة أيضًا أبعادًا اقتصادية مقلقة لاستخدامات الذكاء الاصطناعي الخبيثة، مشيرة إلى أن الذّكاء الاصطناعيّ قد يُستخدم في أتمتة الهجمات المالية والابتزاز الرقمي والتلاعب بالأسواق.

فقد أوضحت أنّ المهاجمين السيبرانيين يمكنهم استغلال تقنيات الذكاء الاصطناعي لتحليل قواعد بيانات ضخمة وتحديد الأهداف بناءً على الثروة أو السلوك الشرائي، مما يسمح بشن هجمات موجهة بدقة على مؤسسات أو أفراد بعينهم. وتضيف أنّ انخفاض تكلفة تنفيذ مثل هذه الهجمات بفعل الأتمتة وسرعة انتشارها، قد يؤدي إلى اضطرابات اقتصادية على نطاق واسع وتهدد الاستقرار المالي خصوصًا في الدول ذات البنية الرقمية الهشة. بل إنّ الدراسة حذّرت من أنّ هذه الهجمات قد تضعف الثقة في الأنظمة المالية الرقمية وتُحدث خللًا في السوق العالمي نتيجة تكرار الهجمات المعتمدة على تزييف البيانات أو نشر المعلومات الكاذبة عبر شبكات ذكية تعمل بشكل ذاتي دون رقابة بشرية مباشرة. (Brundage et al., 2018)

إنّ إنشاء منظمة دولية تُعنى بتنظيم الذّكاء الاصطناعيّ، تحت مظلة الأمم المتحدة يكتسب أهمية متزايدة في الأوساط الأكاديمية والبحثية والاقتصادية والسياسية. هذه المنظمة من المفترض أن تضطلع بعدة مهام رئيسة، منها على سبيل المثال لا للحصر: وضع إطار تشريعي وأخلاقي ملزم ومراقبة التطبيقات العسكرية والأمنية والتجارية للذكاء الاصطناعي وتسهيل نقل التكنولوجيا للدول النامية بالإضافة إلى ضمان احترام الخصوصية والعدالة وعدم التمييز في خوارزميات التعلم الآلي. ومع ذلك، ربما قد تواجه الفكرة تحديات سياسية واقتصادية كبيرة، إذ تخشى بعض الدول الصناعية من أن يؤدي وجود منظمة رقابية إلى كبح جماح الابتكار أو التأثير على تفوقها التقني والاقتصادي. وتبرز هنا إشكالية تحقيق التوازن بين حرية التطوير من جهة، وضرورة التنظيم والحماية من جهة أخرى. وفي هذا السياق، يمكن الاستفادة من نماذج ناجحة لتعاون دولي قائم، مثل الوكالة الدولية للطاقة الذرية التي تنظم الاستخدام السلمي للطاقة النووية أو منظمة الصحة العالمية التي تدير التنسيق الصحي العالمي. فكما أنّ الطاقة النووية والصحة تمسان مصير البشرية، فإنّ الذّكاء الاصطناعيّ بات اليوم في صميم القرارات المصيرية والمجتمعية. إنّ إنشاء منظمة دولية للذّكاء الاصطناعيّ لا يُعد ترفًا تنظيميًا فحسب، بل ضرورة استراتيجية لحماية البشرية من انفلات تقني قد يؤدي إلى كوارث سياسية واقتصادية واجتماعية. فكلما تأخر العالم في وضع أسس مشتركة، زادت الفجوة بين الدول وتعاظمت المخاطر المحتملة.

والسؤال الذي ينبغي أن يُطرح على طاولة قادة الذّكاء الاصطناعيّ والمعنيين ليس "هل يجب أن ننظم الذّكاء الاصطناعيّ؟" بل "هل نستطيع أن نتحمل تكلفة عدم تنظيمه؟".

المصدر: جريدة الرؤية العمانية

إقرأ أيضاً:

دراسة: استخدام الذكاء الاصطناعي في الكتابة يؤثر سلبًا في نشاط الدماغ

كشفت دراسة حديثة أجراها معهد ماساتشوستس للتكنولوجيا (MIT)، أن الاعتماد على أدوات الذكاء الاصطناعي التوليدي مثل ChatGPT في مهام الكتابة يؤدي إلى تراجع ملحوظ في نشاط الدماغ والوظائف المعرفية، مقارنةً بمن يستخدمون محركات البحث أو يعتمدون على مهاراتهم الذاتية في الكتابة.

تفاصيل دراسة معهد ماساتشوستس للتكنولوجيا

أجرى باحثون من مختبر Media Lab التابع لمعهد ماساتشوستس للتكنولوجيا، دراسة استمرت لمدة تبلغ أربعة أشهر، قارنوا فيها بين ثلاث مجموعات من المشاركين في أثناء إنجاز مهام كتابية.

وأظهرت النتائج أن الأشخاص الذين استخدموا ChatGPT أتموا مهامهم الكتابية بسرعة تجاوزت غيرهم بنسبة قدرها 60%، لكن جاء ذلك على حساب الجهد العقلي المرتبط بفهم المعلومات وتنظيمها في الذاكرة الطويلة الأمد.فقد سجلوا انخفاضًا بنسبة قدرها 32% فيما يُعرف بـ (Germane Cognitive Load)، وهو مؤشر على مدى استيعاب الدماغ للمعلومات بنحو عميق وتنظيمها في الذاكرة الطويلة الأمد.

وأظهرت الدراسة أيضًا، أن المقالات التي كتبتها المجموعة التي استخدمت ChatGPT كانت متشابهة بنحو ملحوظ وافتقرت إلى الأصالة، كما عبّر المشاركون عن شعور ضعيف بالانتماء أو «الملكية» تجاه ما كتبوه.

chatgpt تدهور أداة الباحثون

ومع تكرار استخدام الأداة، لاحظ الباحثون تدهورًا تدريجيًا في الأداء، فقد أصبح المستخدمون يكتفون بنسخ النصوص المولدة دون مراجعة أو تفكير نقدي. واستمرت هذه التأثيرات السلبية حتى بعد التوقف عن استخدام الأداة، مما يشير إلى احتمالية حدوث تغيّرات دائمة في طريقة عمل الدماغ.

ومن المُتوقع أن تكون أدمغة الشباب، التي ما تزال في طور النمو، أكثر عرضة لهذه التأثيرات، مما يثير القلق من الانتشار الواسع لأدوات الذكاء الاصطناعي في البيئات التعليمية.

تغيّرات في الأنشطة العصبية في الدماغ

اعتمدت الدراسة على فحوصات التخطيط الكهربائي للدماغ «EEG» لرصد الأنشطة العصبية. وقد أظهرت النتائج أن المشاركين الذين كتبوا بالاعتماد على قدراتهم الذاتية كان لديهم اتصالات عصبية أكثر ترابطًا من غيرهم، إذ سُجل لديهم 79 اتصالًا عصبيًا في نطاق موجات ألفا المرتبطة بالتركيز والتفكير الإبداعي. وأما الذين استخدموا محركات البحث فحققوا مستوى أداء متوسط، وسجل مستخدمو ChatGPT أضعف أداء بلغ 42 اتصالًا فقط.

كما رُصد انخفاض مماثل في نطاق موجات «ثيتا» Theta، المرتبط بالذاكرة والتحكم التنفيذي، إذ بلغ عدد الاتصالات العصبية لدى المجموعة التي اعتمدت على مهاراتها الذاتية في الكتابة 65 اتصالًا، مقابل 29 اتصالًا عصبيًا فقط لدى مستخدمي ChatGPT. وتُشير هذه الفروقات إلى وجود علاقة عكسية بين الاعتماد على أدوات الذكاء الاصطناعي وبين انخراط الدماغ في معالجة المعلومات.

خلل في الذاكرة وتراجع القدرة على التذكر

من أكثر النتائج إثارة للقلق، أن ما نسبته 83% من مستخدمي ChatGPT لم يتمكنوا من تذكّر اقتباسات من مقالات كتبوها قبل دقائق فقط، وبلغت النسبة 11.1% فقط لدى من استخدموا محركات البحث أو كتبوا دون مساعدة. وعند مطالبتهم بإعادة كتابة المقال دون استخدام الذكاء الاصطناعي، عجزوا عن تذكر معظم المحتوى، مما يشير إلى ضعف معالجة المعلومات في الذاكرة الطويلة الأمد.

تأثيرات مستقبلية في التعليم

تثير نتائج هذه الدراسة تساؤلات جوهرية عن الخطر المرتبط بالاستخدام الواسع لأدوات الذكاء الاصطناعي في البيئات التعليمية، خاصة لدى الفئات العمرية الصغيرة التي ما تزال في طور تطوير قدراتها العقلية. وقد حذّرت الباحثة الرئيسية في الدراسة، Nataliya Kosmyna من أن الطلاب الذين يعتمدون على أدوات مثل ChatGPT قد يطوّرون أنماطًا معرفية مختلفة تؤثر في مهاراتهم الذهنية المستقبلية.

وتتوافق هذه النتائج مع دراسات أخرى تشير إلى أن الاستخدام المكثف للذكاء الاصطناعي قد يُساهم في زيادة الشعور بالوحدة وانخفاض الإبداع، حتى مع مساهمته في تحسين الإنتاجية.

اقرأ أيضاًالتكنولوجيا الرقمية والذكاء الاصطناعي يعيدان تشكيل مستقبل التعليم

«ميتا» تستثمر 14.3 مليار دولار في شركة الذكاء الاصطناعي «سكيل»

الذكاء الاصطناعي يزف بشرى سارة لـ الأهلي قبل مواجهة إنتر ميامي

مقالات مشابهة

  • مساعد الذكاء الاصطناعي بواتساب يسرب رقم هاتف أحد المستخدمين
  • “آبل”: الذكاء الاصطناعي يفتقر للتفكير العميق
  • الذكاء الاصطناعي يتنبأ: حرب شاملة وأزمة طاقة عالمية بعد هجوم ترامب على إيران
  • دراسة: استخدام الذكاء الاصطناعي في الكتابة يؤثر سلبًا في نشاط الدماغ
  • أبل تدرس الاستحواذ على Perplexity AI لتعويض تأخرها في سباق الذكاء الاصطناعي
  • الذكاء الاصطناعي في التحكيم الرياضي بين الدقة والتحديات
  • محتوى بلا بشر… الذكاء الاصطناعي يغزو تيك توك والارباح تتضاعف
  • غوغل تطور البحث الصوتي.. تفاعل ذكي مدعوم بـ«الذكاء الاصطناعي»
  • وضع الذكاء الاصطناعي.. رهان غوغل الجديد لمواجهة منافسي البحث
  • مش خطر على شغلك| الذكاء الاصطناعي يزيد راتبك بنسبة 56%