ابو غزالة: لنتفق على تعريف موحد للذكاء الاصطناعي
تاريخ النشر: 18th, July 2023 GMT
شاهد المقال التالي من صحافة الأردن عن ابو غزالة لنتفق على تعريف موحد للذكاء الاصطناعي، سواليف في عام 2002م سألت بيل جيتس في اجتماع القمة التنفيذية ل مايكروسوفت في باريس عمّا ستؤول إليه الحقبة التالية، .،بحسب ما نشر سواليف، تستمر تغطيتنا حيث نتابع معكم تفاصيل ومعلومات ابو غزالة: لنتفق على تعريف موحد للذكاء الاصطناعي، حيث يهتم الكثير بهذا الموضوع والان إلى التفاصيل فتابعونا.
سواليف
في عام (2002م) سألت بيل جيتس في اجتماع القمة التنفيذية لمايكروسوفت في باريس عمّا ستؤول إليه الحقبة التالية، وأجاب بأننا متجهون نحو عصر الذكاء الاصطناعي. وصار بالفعل وأنا أتابع هذه التكنولوجيا بشغف مع ابنتي جمانة أبوغزاله بوصفها متابعة لهذه التقنيات.
واليوم أصبح الجميع يتحدث عن الذكاء الاصطناعي وقدرته على تغيير عالمنا بعدد لا يكاد يُحصى من الطرق المختلفة. وأضحى موضوعًا حيويًا يثير مناقشات متنوعة ومكثفة حول إيجابياته وسلبياته، وواقعه وخياله، وتحيّزه وأخلاقياته، فضلاً عن تهديداته وإمكاناته. فمثلًا استطاع الناس بفعل الذكاء الاصطناعي وظهور (ChatGPT)، يمكن للعامة الآن رؤية إمكانات هذه التكنولوجيا وتجربة تطبيقاتها لأول مرة ومعرفة مخاطرها وحدودها.
وإثر تقييم ما يجري في عالم الذكاء الاصطناعي والتشاور مع جمانة وأشخاص آخرين، بدا أن لا تعريفَ واضحًا ومقبولًا عالميًا للذكاء الاصطناعي، فالمصطلح يُفسّر بمعاني مختلفة. فعلى سبيل المثال يشير الذكاء الاصطناعي إلى نوع من أنواع النظم في وزارة الخارجية الأمريكية ومنظمة التعاون الاقتصادي والتنمية، في حين يصفه الكونجرس الأمريكي بأنه نظام محوسب، أما شركة OpenAI فقد صنّفته على أنه نظام مستقل للغاية.
بينما عرّفته شركات كميكروسوفت بأنه مجموعة من القدرات، وتعتبره جوجل والاتحاد الأوروبي مجموعة من التقنيات، ووصفته الصين كتقنية إستراتيجية. وقد غالت شركة ميتا فقدّمت له تعريفات مختلفة على مر السنين بقدر يكفي لإرباك (ChatGPT) نفسه لبعض تعريفات ثم يتراجع عنها.
مع كثرة هذه التعريفات والمفاهيم لمصطلح واحد (الذكاء الاصطناعي) وضبابيتها، إنما يدل على مشكلة أساسية في تحديد ماهية هذه التكنولوجيا، فما الذي نتحدث عنه بالضبط عندما نشير إلى الذكاء الاصطناعي؟ كيف يمكننا إجراء مناقشات هادفة حول كيفية تطويره وإدارته واستخدامه وتطبيقه، بالإضافة إلى مزاياه ومخاطره ومستقبله إن كان المصطلح محفوفا بالغموض.
ولأن مهنتي الأساسية هي المحاسبة وبوصفي مؤسسًا ورئيسًا لواحدة من أكبر شركات التدقيق في العالم (TAG.Global) فإن دقّة المصطلحات المختلفة ووضوحها شيء مهم للغاية. وقد كتبت جمانة في العام (2019) مقالًا في (The Startup) عن تقنية البيانات المكثفة واستخراج البيانات فبدأت بقولها: “الجميع يعرف أن خطأ ما يمْثل أمامنا لكنهم عاجزون عن الاتفاق وتحديد ماهيته”، وكان بإمكاني أن أبدأ هذا المقال بنفس الطريقة.
الأجدر بنا قبل المضي قدمًا في مناقشة “الذكاء الاصطناعي” أن نحدد تعريفًا له يصفه وصفًا دقيقًا وهادفًا. فكما يقال في الدوائر الإدارية “لا يمكنك إدارة ما لا يمكنك قياسه”. وأود أن أضيف إلى ذلك: “لا يمكنك قياس ما لم تعرّفه”، فإذا كنا سنبني قطاعًا صحيًا ومتنوعًا وحيويًا يعتمد على الذكاء الاصطناعي، فنحن بحاجة إلى توضيح المصطلحات والتعريفات والتسلسلات الخاصة به لأنها الأساس لبناء نظام بيئي شامل للذكاء الاصطناعي.
إننا بحاجة ماسّة إلى تحديد تصنيف الذكاء الاصطناعي ووضع مصطلحات دقيقة له ولكل ما يتصل به أولًا للمضي قدمًا. ولابد أن تدور محادثات حول ماهية الذكاء الاصطناعي وما يجعل من أي نظامٍ نظامًا اصطناعيا ذكيًا، ولكي تتضح الأزمة التي نمر بها فعليًا لاحظ أن عالمنا اليوم مازال يضيّق تعريف الذكاء الاصطناعي بأنه مجموعة من الأدوات الذكية والتي تضم آلات ومعدّات مثل السيارة ذاتية القيادة، وأجهزة التعرف على الوجه وال
المصدر: صحافة العرب
كلمات دلالية: مايكروسوفت موعد عاجل الدولار الامريكي اليوم اسعار الذهب اسعار النفط مباريات اليوم جدول ترتيب حالة الطقس الذکاء الاصطناعی
إقرأ أيضاً:
منظمة دولية لتنظيم الذكاء الاصطناعي.. ضرورة عالمية؟!
عارف بن خميس الفزاري
persware@gmail.com
في ظل الطفرات المُتلاحقة في مجال الذّكاء الاصطناعيّ، تتزايد الحاجة إلى ضرورة إنشاء مُنظمة دولية مُستقلة تُعنى بتنظيم هذا المجال الآخذ في التوسع بشكل غير مسبوق. فبينما تحقق أنظمة الذّكاء الاصطناعيّ إنجازات مُذهلة في قطاعات متعددة، من الرعاية الصحية إلى أنظمة الدفاع، تتنامى المخاوف بشأن التهديدات الأخلاقية والقانونية وحتى الوجودية التي قد تنشأ عن غياب إطار دولي موحد يضبط هذا التطور. وقد عبّر عن هذه المخاوف البروفيسور جيفري هينتون (Geoffrey Hinton)، أحد مؤسسي تقنيات التعلم العميق، محذرًا من أنّ الذّكاء الاصطناعيّ قد يصبح أذكى من البشر، وأنه "من غير الواضح إن كنَّا سنتمكن من السيطرة عليه لاحقًا" (Vincent, 2023).
تصريحات هينتون تعكس قلقًا متناميًا بين خبراء الصناعة بشأن تسارع الذّكاء الاصطناعيّ وتجاوزه للقدرة التنظيمية الحالية، وهو ما يجعل الحاجة إلى تدخل دولي أكثر من أيّ وقت مضى.
لقد بات الذكاء الاصطناعي جزءًا لا يتجزأ من حياتنا اليومية. فهو يُستخدم في المستشفيات لتشخيص الأمراض، وفي المؤسسات الأمنية لرصد التهديدات وفي الأنظمة التعليمية لتحليل أداء الطلاب وتقديم محتوى مخصص لهم، بل وحتى في أنظمة العدالة لاتخاذ قرارات متعلقة بالإفراج أو التوصية بالأحكام. لكن هذا الانتشار السريع ترافقه تحديات عميقة ترتبط بالخصوصية والتمييز وشفافية الخوارزميات وغياب المساءلة القانونية في حال وقوع ضرر. السؤال الذي يُطرح اليوم: من يملك سلطة رسم الخطوط الحمراء لاستخدام الذكاء الاصطناعي؟ هل يُترك الأمر لتقديرات كل دولة على حدة، أم أن الأمر بات يستوجب تدخلاً دوليًا شاملًا، يضمن الاستخدام الآمن والعادل والمسؤول لهذه التقنية؟ في الواقع تعكف العديد من الدول الكبرى وتتنافس على تطوير نماذج متقدمة من الذكاء الاصطناعي، منها ما يمتلك قدرات توليدية قادرة على كتابة النصوص وإنتاج الصور، بل وحتى محاكاة المشاعر. هذه النماذج، إذا تُركت دون رقابة قد تُستخدم في التزييف العميق والتحريض السياسي والتلاعب بالأسواق، أو حتى إدارة أنظمة أسلحة مُميتة ذاتيًا دون تدخل بشري مباشر.
وفي ظل هذه التحديات، بدأت بعض التكتلات مثل الاتحاد الأوروبي في وضع تشريعات تنظم الذّكاء الاصطناعيّ، مثل قانون الذّكاء الاصطناعيّ الأوروبي (AI Act)، الذي يُعد من أوائل المحاولات الجادة لتصنيف المخاطر وفرض معايير للشفافية والمساءلة وفق تكتلات سياسية واقتصادية والذي دخل حيز التنفيذ في أغسطس 2024م. كما تبنّت منظمة اليونسكو في عام 2021 توصيات أخلاقية بشأن الذّكاء الاصطناعيّ والتي ركزت على احترام حقوق الإنسان وتعزيز التنمية المستدامة. غير أن هذه المبادرات، رغم أهميتها تبقى ذات طابع إقليمي أو توجيهي غير ملزم للغير، مما يبرز الحاجة إلى كيان دولي يتمتع بصلاحيات أوسع. وفي هذا السياق، حذرت دراسة صادرة عن جامعة أكسفورد ومراكز بحثية دولية من أن الاستخدامات الخبيثة للذكاء الاصطناعي ستتزايد بشكل خطير في غياب تنظيم دولي فعال.
وقد أكدت الدراسة- التي حملت عنوان The Malicious Use of Artificial Intelligence: Forecasting, Prevention, and Mitigation، والصادرة عن معهد مستقبل الإنسانية بجامعة أكسفورد (Future of Humanity Institute, University of Oxford)- على أن المخاطر تشمل التضليل الإعلامي، والتحكم الآلي في الأسلحة، والهجمات السيبرانية المتقدمة، داعية إلى إنشاء منظمة دولية تعزز التعاون بين الدول، وتضع أطرًا للوقاية والتخفيف من التهديدات المستقبلية. وإلى جانب التهديدات السياسية والأمنية، تناولت ذات الدراسة أيضًا أبعادًا اقتصادية مقلقة لاستخدامات الذكاء الاصطناعي الخبيثة، مشيرة إلى أن الذّكاء الاصطناعيّ قد يُستخدم في أتمتة الهجمات المالية والابتزاز الرقمي والتلاعب بالأسواق.
فقد أوضحت أنّ المهاجمين السيبرانيين يمكنهم استغلال تقنيات الذكاء الاصطناعي لتحليل قواعد بيانات ضخمة وتحديد الأهداف بناءً على الثروة أو السلوك الشرائي، مما يسمح بشن هجمات موجهة بدقة على مؤسسات أو أفراد بعينهم. وتضيف أنّ انخفاض تكلفة تنفيذ مثل هذه الهجمات بفعل الأتمتة وسرعة انتشارها، قد يؤدي إلى اضطرابات اقتصادية على نطاق واسع وتهدد الاستقرار المالي خصوصًا في الدول ذات البنية الرقمية الهشة. بل إنّ الدراسة حذّرت من أنّ هذه الهجمات قد تضعف الثقة في الأنظمة المالية الرقمية وتُحدث خللًا في السوق العالمي نتيجة تكرار الهجمات المعتمدة على تزييف البيانات أو نشر المعلومات الكاذبة عبر شبكات ذكية تعمل بشكل ذاتي دون رقابة بشرية مباشرة. (Brundage et al., 2018)
إنّ إنشاء منظمة دولية تُعنى بتنظيم الذّكاء الاصطناعيّ، تحت مظلة الأمم المتحدة يكتسب أهمية متزايدة في الأوساط الأكاديمية والبحثية والاقتصادية والسياسية. هذه المنظمة من المفترض أن تضطلع بعدة مهام رئيسة، منها على سبيل المثال لا للحصر: وضع إطار تشريعي وأخلاقي ملزم ومراقبة التطبيقات العسكرية والأمنية والتجارية للذكاء الاصطناعي وتسهيل نقل التكنولوجيا للدول النامية بالإضافة إلى ضمان احترام الخصوصية والعدالة وعدم التمييز في خوارزميات التعلم الآلي. ومع ذلك، ربما قد تواجه الفكرة تحديات سياسية واقتصادية كبيرة، إذ تخشى بعض الدول الصناعية من أن يؤدي وجود منظمة رقابية إلى كبح جماح الابتكار أو التأثير على تفوقها التقني والاقتصادي. وتبرز هنا إشكالية تحقيق التوازن بين حرية التطوير من جهة، وضرورة التنظيم والحماية من جهة أخرى. وفي هذا السياق، يمكن الاستفادة من نماذج ناجحة لتعاون دولي قائم، مثل الوكالة الدولية للطاقة الذرية التي تنظم الاستخدام السلمي للطاقة النووية أو منظمة الصحة العالمية التي تدير التنسيق الصحي العالمي. فكما أنّ الطاقة النووية والصحة تمسان مصير البشرية، فإنّ الذّكاء الاصطناعيّ بات اليوم في صميم القرارات المصيرية والمجتمعية. إنّ إنشاء منظمة دولية للذّكاء الاصطناعيّ لا يُعد ترفًا تنظيميًا فحسب، بل ضرورة استراتيجية لحماية البشرية من انفلات تقني قد يؤدي إلى كوارث سياسية واقتصادية واجتماعية. فكلما تأخر العالم في وضع أسس مشتركة، زادت الفجوة بين الدول وتعاظمت المخاطر المحتملة.
والسؤال الذي ينبغي أن يُطرح على طاولة قادة الذّكاء الاصطناعيّ والمعنيين ليس "هل يجب أن ننظم الذّكاء الاصطناعيّ؟" بل "هل نستطيع أن نتحمل تكلفة عدم تنظيمه؟".