عارف بن خميس الفزاري

[email protected]

 

في ظل الطفرات المُتلاحقة في مجال الذّكاء الاصطناعيّ، تتزايد الحاجة إلى ضرورة إنشاء مُنظمة دولية مُستقلة تُعنى بتنظيم هذا المجال الآخذ في التوسع بشكل غير مسبوق. فبينما تحقق أنظمة الذّكاء الاصطناعيّ إنجازات مُذهلة في قطاعات متعددة، من الرعاية الصحية إلى أنظمة الدفاع، تتنامى المخاوف بشأن التهديدات الأخلاقية والقانونية وحتى الوجودية التي قد تنشأ عن غياب إطار دولي موحد يضبط هذا التطور.

وقد عبّر عن هذه المخاوف البروفيسور جيفري هينتون (Geoffrey Hinton)، أحد مؤسسي تقنيات التعلم العميق، محذرًا من أنّ الذّكاء الاصطناعيّ قد يصبح أذكى من البشر، وأنه "من غير الواضح إن كنَّا سنتمكن من السيطرة عليه لاحقًا" (Vincent, 2023).

تصريحات هينتون تعكس قلقًا متناميًا بين خبراء الصناعة بشأن تسارع الذّكاء الاصطناعيّ وتجاوزه للقدرة التنظيمية الحالية، وهو ما يجعل الحاجة إلى تدخل دولي أكثر من أيّ وقت مضى.

لقد بات الذكاء الاصطناعي جزءًا لا يتجزأ من حياتنا اليومية. فهو يُستخدم في المستشفيات لتشخيص الأمراض، وفي المؤسسات الأمنية لرصد التهديدات وفي الأنظمة التعليمية لتحليل أداء الطلاب وتقديم محتوى مخصص لهم، بل وحتى في أنظمة العدالة لاتخاذ قرارات متعلقة بالإفراج أو التوصية بالأحكام. لكن هذا الانتشار السريع ترافقه تحديات عميقة ترتبط بالخصوصية والتمييز وشفافية الخوارزميات وغياب المساءلة القانونية في حال وقوع ضرر. السؤال الذي يُطرح اليوم: من يملك سلطة رسم الخطوط الحمراء لاستخدام الذكاء الاصطناعي؟ هل يُترك الأمر لتقديرات كل دولة على حدة، أم أن الأمر بات يستوجب تدخلاً دوليًا شاملًا، يضمن الاستخدام الآمن والعادل والمسؤول لهذه التقنية؟ في الواقع تعكف العديد من الدول الكبرى وتتنافس على تطوير نماذج متقدمة من الذكاء الاصطناعي، منها ما يمتلك قدرات توليدية قادرة على كتابة النصوص وإنتاج الصور، بل وحتى محاكاة المشاعر. هذه النماذج، إذا تُركت دون رقابة قد تُستخدم في التزييف العميق والتحريض السياسي والتلاعب بالأسواق، أو حتى إدارة أنظمة أسلحة مُميتة ذاتيًا دون تدخل بشري مباشر.

وفي ظل هذه التحديات، بدأت بعض التكتلات مثل الاتحاد الأوروبي في وضع تشريعات تنظم الذّكاء الاصطناعيّ، مثل قانون الذّكاء الاصطناعيّ الأوروبي (AI Act)، الذي يُعد من أوائل المحاولات الجادة لتصنيف المخاطر وفرض معايير للشفافية والمساءلة وفق تكتلات سياسية واقتصادية والذي دخل حيز التنفيذ في أغسطس 2024م. كما تبنّت منظمة اليونسكو في عام 2021 توصيات أخلاقية بشأن الذّكاء الاصطناعيّ والتي ركزت على احترام حقوق الإنسان وتعزيز التنمية المستدامة. غير أن هذه المبادرات، رغم أهميتها تبقى ذات طابع إقليمي أو توجيهي غير ملزم للغير، مما يبرز الحاجة إلى كيان دولي يتمتع بصلاحيات أوسع.  وفي هذا السياق، حذرت دراسة صادرة عن جامعة أكسفورد ومراكز بحثية دولية من أن الاستخدامات الخبيثة للذكاء الاصطناعي ستتزايد بشكل خطير في غياب تنظيم دولي فعال.

وقد أكدت الدراسة- التي حملت عنوان The Malicious Use of Artificial Intelligence: Forecasting, Prevention, and Mitigation، والصادرة عن معهد مستقبل الإنسانية بجامعة أكسفورد (Future of Humanity Institute, University of Oxford)- على أن المخاطر تشمل التضليل الإعلامي، والتحكم الآلي في الأسلحة، والهجمات السيبرانية المتقدمة، داعية إلى إنشاء منظمة دولية تعزز التعاون بين الدول، وتضع أطرًا للوقاية والتخفيف من التهديدات المستقبلية. وإلى جانب التهديدات السياسية والأمنية، تناولت ذات الدراسة أيضًا أبعادًا اقتصادية مقلقة لاستخدامات الذكاء الاصطناعي الخبيثة، مشيرة إلى أن الذّكاء الاصطناعيّ قد يُستخدم في أتمتة الهجمات المالية والابتزاز الرقمي والتلاعب بالأسواق.

فقد أوضحت أنّ المهاجمين السيبرانيين يمكنهم استغلال تقنيات الذكاء الاصطناعي لتحليل قواعد بيانات ضخمة وتحديد الأهداف بناءً على الثروة أو السلوك الشرائي، مما يسمح بشن هجمات موجهة بدقة على مؤسسات أو أفراد بعينهم. وتضيف أنّ انخفاض تكلفة تنفيذ مثل هذه الهجمات بفعل الأتمتة وسرعة انتشارها، قد يؤدي إلى اضطرابات اقتصادية على نطاق واسع وتهدد الاستقرار المالي خصوصًا في الدول ذات البنية الرقمية الهشة. بل إنّ الدراسة حذّرت من أنّ هذه الهجمات قد تضعف الثقة في الأنظمة المالية الرقمية وتُحدث خللًا في السوق العالمي نتيجة تكرار الهجمات المعتمدة على تزييف البيانات أو نشر المعلومات الكاذبة عبر شبكات ذكية تعمل بشكل ذاتي دون رقابة بشرية مباشرة. (Brundage et al., 2018)

إنّ إنشاء منظمة دولية تُعنى بتنظيم الذّكاء الاصطناعيّ، تحت مظلة الأمم المتحدة يكتسب أهمية متزايدة في الأوساط الأكاديمية والبحثية والاقتصادية والسياسية. هذه المنظمة من المفترض أن تضطلع بعدة مهام رئيسة، منها على سبيل المثال لا للحصر: وضع إطار تشريعي وأخلاقي ملزم ومراقبة التطبيقات العسكرية والأمنية والتجارية للذكاء الاصطناعي وتسهيل نقل التكنولوجيا للدول النامية بالإضافة إلى ضمان احترام الخصوصية والعدالة وعدم التمييز في خوارزميات التعلم الآلي. ومع ذلك، ربما قد تواجه الفكرة تحديات سياسية واقتصادية كبيرة، إذ تخشى بعض الدول الصناعية من أن يؤدي وجود منظمة رقابية إلى كبح جماح الابتكار أو التأثير على تفوقها التقني والاقتصادي. وتبرز هنا إشكالية تحقيق التوازن بين حرية التطوير من جهة، وضرورة التنظيم والحماية من جهة أخرى. وفي هذا السياق، يمكن الاستفادة من نماذج ناجحة لتعاون دولي قائم، مثل الوكالة الدولية للطاقة الذرية التي تنظم الاستخدام السلمي للطاقة النووية أو منظمة الصحة العالمية التي تدير التنسيق الصحي العالمي. فكما أنّ الطاقة النووية والصحة تمسان مصير البشرية، فإنّ الذّكاء الاصطناعيّ بات اليوم في صميم القرارات المصيرية والمجتمعية. إنّ إنشاء منظمة دولية للذّكاء الاصطناعيّ لا يُعد ترفًا تنظيميًا فحسب، بل ضرورة استراتيجية لحماية البشرية من انفلات تقني قد يؤدي إلى كوارث سياسية واقتصادية واجتماعية. فكلما تأخر العالم في وضع أسس مشتركة، زادت الفجوة بين الدول وتعاظمت المخاطر المحتملة.

والسؤال الذي ينبغي أن يُطرح على طاولة قادة الذّكاء الاصطناعيّ والمعنيين ليس "هل يجب أن ننظم الذّكاء الاصطناعيّ؟" بل "هل نستطيع أن نتحمل تكلفة عدم تنظيمه؟".

المصدر: جريدة الرؤية العمانية

إقرأ أيضاً:

الكادحون الجدد في مزارع الذكاء الاصطناعي

هل يساعدك الذكاء الاصطناعي على إنجاز مهامك في العمل؟ إذا كانت إجابتك نعم، فهذا يعني أن مديرك سيتوقعُ منك ما هو أكثر من اليوم فصاعدًا، أكثر مما كنت تقوم به في الأيام الخوالي يا عزيزي الكادح. مع الأسف، إنجازك السريع للتكليفات بمساعدة تشات جي بي تي لن يمنحك الرخصة للعودة إلى البيت قبل نهاية الدوام الرسمي، بل سيغري الشركة بزيادة كم التكليفات الملقاة على عاتقك، لم لا وقد أصبحت تنجزها في وقت أقل، بل وتتباهى بذلك؟! وربما سترسلك إدارة الشركة إلى دورات وورش تدريبية كي تتعلم أشغالًا جديدة لم تكن في يوم من الأيام ضمن المهام التقليدية لتعريفك الوظيفي. سيتسعُ نطاق تعريفك الوظيفي ليشمل وظائف أخرى مع تغير المعنى التقليدي للوظائف في كل القطاعات. كل ذلك لأنك أصبحت إنسانًا مُطوَرًا بنظر أرباب العمل، إنسانًا «أذكى» مما كنت عليه، ولذلك صار عليك أن تنتج أكثر مما كنت تنتجه خلال ساعات العمل المنصوص عليها في العقد.

تذكَّر، هناك من يربح أكثر لأنك تستخدم الذكاء الاصطناعي، عزيزي الكادح. أنت منذ الآن إنسان مُلحق بأدوات مساعدة، إنسان معدَّل بالآلة لصالح هذه الخدمة. سيرتفع من معدل إنتاجيتك الفردية خلال ساعات العمل بما يؤدي لرفع معدل إنتاجية الشركة في المحصلة، لكنك لن تعود إلى البيت قبل الخامسة مساءً في الغالب، يؤسفني تعكير المسرات.

باعتمادك واعتمادهم على مساعدة الذكاء الاصطناعي، والذي بات مسألة منتهيةً لا مفرَّ منها، يُقدم الكادحون الجدد حول العالم أدلة يومية من واقع العمل على أنهم أرقام زائدة يمكن الاستغناء عنها ما دام الذكاء الاصطناعي يعمل بهذا القدر من السرعة والكفاءة. ما الذي يمنع ذلك ما دام المنطقُ الرأسمالي الذي تعمل به الشركات يرى الذكاء الاصطناعي أكثر طاعة ومطواعية بخلاف البشر، فإنهم مماطلون وعنيدون، ومجبولون على حب السجال دائمًا حول كل صغيرة وكبيرة، كما أنهم يبدون استعدادًا فطريًا للمقاومة، وهذا أكثر ما يرهق العقلية السلطوية التي تُدار بها المؤسسات.

الأدلة تتزايد كل يوم على الطريقة التي يعمق بها الذكاء الاصطناعي غياب العدالة والمساواة في بيئات العمل. ننسى أحيانًا ونحن نمدح دوره في مساعدتنا على إنجاز مهام لا نتقنها، أن هناك شخصًا سهر وكابد لسنوات من أجل تعلم تلك المهارات اللازمة التي لا نملكها. بهذا المعنى فإن الذكاء الاصطناعي يضع المؤهل وغير المؤهل متساويين على خط السباق، ويعزز من إمكانية نجاح المواهب المزيفة على حساب المواهب الحقيقية المصقولة بتعب الزمن. نرى ذلك عيانًا ونعايشه في معسكرات الإنتاج الرأسمالي، المريضة من قبل بحمى التنافسية غير العادلة، وقد أصبحت اليوم بيئات أكثر عدوانية لا فرصَ فيها إلا للانتهازيين الشطَّار الذين يُفضلون الطرق المختصرة على مشقة التعليم المضني والممل.

في سياق هذا التحول المخيف تدخل الرأسمالية عصرها الجديد مع ثورة الذكاء الاصطناعي، حيث تغدو الشركات الكبرى نموذجًا للدكتاتوريات العصرية في صورة تتجاوز وتقهر حتى دكتاتورية الدولة التقليدية. لا تتوانى هذه الدكتاتوريات الرأسمالية عن تطبيق المقولة الاستعمارية المجرَّبة «فرّق تسد»، وذلك عبر إحلال الذكاء الاصطناعي محل العامل البشري، أو من خلال تسليطه رقيبًا عتيدًا على سلوك الموظفين، فيتتبع بياناتهم الخاصة ويراقب ويحلل طبيعة التواصل فيما بينهم كي يمنع أي حالة من التكتل أو الفعل الجماعي المقاوم. ففي بيئات الإنتاج المراقبة بالحسَّاسات والكاميرات الذكية يُطور الذكاء الاصطناعي آليات الرقابة على السلوك والأجساد، والتي بلغت تطبيقاتها في كبريات الشركات العالمية إلى حد تثبيت أنظمة لمراقبة الوقت خارج المهمة (Time off task) فأي شرود أو سهو عن المهمة قد يُعرض الموظف لعقوبة الخصم.

بات واضحًا أن التاريخ ينساق لصدامٍ حتمي بين الإنسان ووحش الآلة. فهل يُنذر هذا التحول بثورة عمَّالية على استبداد الذكاء الاصطناعي يمكن أن نشهدها في المستقبل؟ إعجاب الأفراد اللاواعي بمساهمة الذكاء الاصطناعي في تسهيل وتسريع أنشطتهم الوظيفية يشي بإذعانٍ متمادٍ، ويجعل من التنبؤ بثورة عمَّالية على هذا الاستبداد فرضية مكبرة. ولكن هل يمكن التفكير بأساليب مقاومة بطيئة إلى ذلك الحين؟ في بيئة سلطوية مطلقة تقوم على تفكيك العلاقات وبتر الصلات الحميمة، وعلى تفتيت الجماعة البشرية إلى أفراد معزولين ومراقبين كل على حدة، لا أرى سوى «المماطلة» خيارًا أخيرًا للمقاومة الفردية بالنسبة للكادحين الجدد.

سالم الرحبي شاعر وكاتب عُماني

مقالات مشابهة

  • وفد أردني من مجلس الأعيان يشارك في مؤتمر دولي حول الذكاء الاصطناعي في كوالالمبور
  • صحف عالمية: صعوبات أمام حشد الدعم لنشر قوة دولية بغزة وغياب الضغوط بشأن السودان
  • ما الذي تغفله هوليوود عن الذكاء الاصطناعي؟
  • مفاجآت عن تأثير الذكاء الاصطناعي على مستقبل التصميم في مصر
  • الكادحون الجدد في مزارع الذكاء الاصطناعي
  • منظمة دولية: التكنولوجيا تُستخدم لإسكات النساء وابتزازهن في ليبيا
  • جوجل تختبر الإعلانات في وضع الذكاء الاصطناعي
  • هل يزيدنا الذكاء الاصطناعي ذكاءً؟
  • الذكاء الاصطناعي يكشف سرا خفيا في لغة الأسود
  • منظمة الصحة العالمية: ارتفاع حالات الحصبة 47% بأوروبا وآسيا الوسطى العام الماضي وسط تفشيات عالمية