تعهد الرئيس التنفيذي لشركة "ميتا" مارك زوكربيرغ بجعل الذكاء الاصطناعي العام "إيه جي آي" (AGI) متاحا للعامة يوما ما، ولكن في وثيقة جديدة اقترحت ميتا أنها لن تُصدر نظام ذكاء اصطناعي متقدما للعلن في حال وجود سيناريوهات معينة قد تُشكل خطرا أو ضررا ما. بحسب تقرير نشره موقع "تيك كرانش".

ويُشاع أن الذكاء الاصطناعي العام قادر على التعلم الذاتي ويمكنه إنجاز كل المهمات التي يمكن للبشر القيام بها، على عكس الذكاء الاصطناعي التقليدي الذي يفعل ما دُرب عليه فقط، ولهذا فإن ميتا قلقة من وقوع هذه التقنية المتقدمة في أيدٍ خاطئة وعدم قدرتها على السيطرة عليها.

وكانت الوثيقة بعنوان إطار عمل الذكاء الاصطناعي المتقدم (Frontier AI Framework) حيث حددت ميتا نوعين من الأنظمة التي تعتبرها عالية الخطورة في حال طرحها وهما "أنظمة عالية الخطورة" و"أنظمة فائقة الخطورة".

وبحسب تعريف ميتا فإن كلا من الأنظمة "عالية الخطورة" و"فائقة الخطورة" تساعد على تنفيذ هجمات إلكترونية أو كيميائية أو بيولوجية، ولكن الفارق هو أن الأنظمة "فائقة الخطورة" قد تؤدي إلى نتائج كارثية لا يمكن السيطرة عليها، في المقابل قد تساعد الأنظمة "عالية الخطورة" في تنفيذ هجوم، ولكن يمكن السيطرة عليه نسبيا لأنه ليس بمستوى الفاعلية مثل الأنظمة فائقة الخطورة.

إعلان

وذكرت ميتا بعض الأمثلة عن هذه الهجمات مثل اختراق نظام التشفير التام بين الطرفين كالذي تستخدمه واتساب وانتشار أسلحة بيولوجية عالية التأثير، وتقر الشركة بأن قائمة الكوارث المحتملة في الوثيقة ليست شاملة ولكنها الأكثر احتمالا في حال إطلاق نظام ذكاء اصطناعي قوي.

ومن الجدير بالذكر أن ميتا لا تُصنف مخاطر الأنظمة استنادا إلى اختبار تجريبي واحد فقط، بل تعتمد على مدخلات عديدة أجراها باحثون داخل الشركة وخارجها والذين يخضعون لمراجعة من قبل صناع قرار رفيعي المستوى.

وفي حال قررت ميتا أن نظاما ما يُعتبر "عالي الخطورة" فإنها ستقيد الوصول إلى هذا النظام داخليا ولن تطلقه حتى تتخذ تدابير مناسبة لتقليل المخاطر إلى مستويات معتدلة، ولكن إذا صُنف النظام على أنه "فائق الخطورة"، فستقوم الشركة بتنفيذ تدابير أمنية غير محددة لمنع تسريب النظام وإيقاف تطويره حتى يمكن جعله أقل خطورة.

وتدّعي ميتا أن إطار عمل الذكاء الاصطناعي المتقدم سيتطور مع تغير مشهد الذكاء الاصطناعي، وذلك ردا على الانتقادات الموجهة لنهج الشركة "المفتوح" في تطوير أنظمتها، إذ تبنت ميتا إستراتيجية تتمثل في جعل تقنية الذكاء الاصطناعي الخاصة بها متاحة للجميع وإن لم تكن مفتوحة المصدر بالمعنى الحرفي، على عكس شركات مثل "أوبن إيه آي" التي تحمي أنظمتها خلف واجهة برمجة التطبيقات "إيه بي آي" (API).

وبالنسبة لشركة ميتا فقد أثبت نهج الإصدار المفتوح أنه نعمة ونقمة في آن واحد، حيث حققت مجموعة نماذج الذكاء الاصطناعي الخاصة بالشركة والتي تُعرف باسم "لاما" (Llama) مئات الملايين من التنزيلات، ولكن يُشاع أن نماذج "لاما" استخدمها خصم واحد على الأقل من خصوم الولايات المتحدة لتطوير روبوت دردشة دفاعي وهو روبوت مصمم خصيصا لمساعدة المؤسسات في تعزيز دفاعاتها الإلكترونية.

إعلان

ومن جهة أخرى فإن نشر ميتا لإطار عمل الذكاء الاصطناعي المتقدم يهدف أيضا إلى مقارنة إستراتيجيتها للذكاء الاصطناعي المفتوح مع إستراتيجية شركة الذكاء الاصطناعي الصينية "ديب سيك" والتي تُعرف بأنها مفتوحة المصدر، ولكنها لا تملك ضمانات حماية كافية ويمكن توجيهها لتوليد مخرجات ضارة وخطيرة.

وكتبت ميتا في الوثيقة: "نعتقد أنه من خلال النظر في الفوائد والمخاطر الناتجة عن تطوير ونشر الذكاء الاصطناعي المتقدم، فمن الممكن تقديم هذه التكنولوجيا للمجتمع بطريقة تجمع أكبر فائدة بأقل ضرر".

المصدر: الجزيرة

كلمات دلالية: حريات الذکاء الاصطناعی المتقدم عالیة الخطورة فی حال

إقرأ أيضاً:

كيف يمكن أن تعمل حوكمة الذكاء الاصطناعي عالميًا؟

جايانت سينها

قبيل انعقاد قمة تأثير الذكاء الاصطناعي في الهند في فبراير، من الواضح أن معظم البلدان لا تزال تفتقر إلى نموذج عملي لحوكمة هذه التكنولوجيا. 

فبينما تترك الولايات المتحدة الأمور إلى حد كبير لقوى السوق، يعتمد الاتحاد الأوروبي على الامتثال التنظيمي المشدد، وتعتمد الصين على سلطة الدولة المركزة. 

ولكن لا يمثل أي من هذا خيارًا واقعيًا إذا كنت من بين كثير من الدول التي يجب أن تحكم الذكاء الاصطناعي دون هياكل تنظيمية ضخمة أو قدرات حوسبة هائلة. بدلا من ذلك، نحن في احتياج إلى إطار عمل مختلف، إطار يدمج الشفافية، والموافقة، والمساءلة مباشرة في البنية الأساسية الرقمية. 

يتعامل هذا النهج مع الحوكمة كخيار تصميمي يمكن دمجه في أسس الأنظمة الرقمية ذاتها. عندما تكون الضمانات جزءا من البنية الأساسية، يصبح السلوك المسؤول هو السلوك المفترض. تكتسب الهيئات التنظيمية رؤية فورية لكيفية تصرف البيانات والأنظمة التي تعمل آليا، ويتمتع المستخدمون بتحكم واضح في معلوماتهم. إنها طريقة أكثر قابلية للتطوير والشمول من تلك التي تعتمد على التنظيم وحده. 

ولكن كيف يجب أن يبدو ذلك في الممارسة العملية؟ تقدم تجربة الهند مع البنية الأساسية العامة الرقمية عددا كبيرا من الدروس المستفادة. 

إذ تُـظهِر منصات الهند لتوثيق الهوية (Aadhaar)، والمدفوعات (UPI)، والسفر (DigiYatra)، والتجارة الرقمية (ONDC)، كيف قد تعمل المعايير العامة والإبداع الخاص معا على نطاق وطني. 

على سبيل المثال، تُظهر منصة DigiYatra -وهي مبادرة مشتركة بين القطاعين العام والخاص تعمل على تبسيط إجراءات تسجيل الوصول في شركات الطيران، والوقوف في طوابير الانتظار، وغير ذلك من عناصر السفر-، كيف تُدار بروتوكولات التحقق من الهوية وبروتوكولات الموافقة لحظيا عبر مجموعات كبيرة من المستخدمين بطريقة آمنة ويمكن التنبؤ بها. 

توضح هذه الأنظمة كيف يمكن أن تعمل البنية الرقمية على توسيع نطاق القدرة على الوصول، وزيادة الثقة، وتعزيز ازدهار الأسواق. 

لن تتمكن بمفردها من حل تحديات حوكمة الذكاء الاصطناعي، لكنها تُظهر أيضا إمكانية التوفيق بين المعايير التقنية والغرض العام حتى في أكبر المجتمعات وأكثرها تنوعا. تعتمد بنية تمكين البيانات وحمايتها في الهند على هذه الدروس، ويجري بالفعل تطبيقها في عدد كبير من القطاعات. 

ولأنها تسمح للأفراد بتفويض أو سحب الإذن باستخدام بياناتهم من خلال قنوات واضحة وقابلة للتدقيق، فإن الشفافية مدمجة فيها، على النحو الذي يمكّن الهيئات التنظيمية من متابعة تدفقات البيانات دون الحاجة إلى مؤسسات إشرافية جديدة. 

مرة أخرى، مبدأ التصميم الأساسي واضح ومباشر: تُـصبِح الحماية الدائمة أكثر فعالية عندما تكون مدمجة في بنية النظام، بدلًا من فرضها فقط من خلال عمليات الامتثال. 

لكي يصبح من الممكن تطبيقه عالميًا، يجب أن يعطي النهج المعماري الأولوية للسيادة على الحوسبة. 

من الواضح أن قدرة الحوسبة هي عنق الزجاجة الاستراتيجي لعصر الذكاء الاصطناعي، ولهذا السبب تنفق الولايات المتحدة والصين مئات المليارات من الدولارات سنويًا على مراكز البيانات المتقدمة ورقائق الذكاء الاصطناعي الإلكترونية. ولكن بما أن معظم الدول لا يمكنها أن تأمل في مجاراة هذه الاستثمارات، فيتعين علينا أن نتجنب سيناريو تتطلب فيه حوكمة الذكاء الاصطناعي ذاتها الحوسبة، حيث لن يكون لمعظم الدول سلطة حقيقية على الأنظمة التي تشكل مجتمعاتها. 

إن الحفاظ على سيادة الحوسبة لا يستلزم بالضرورة بناء كل مركز بيانات محليًا. لكنه يعني أن أنظمة الذكاء الاصطناعي التي تعمل داخل بلد ما يجب أن تظل خاضعة لقوانينها ومسؤولة أمام السلطات المحلية، بصرف النظر عن مكان حدوث الحوسبة. سوف يكون لزاما على شركات التكنولوجيا المتعددة الجنسيات الإبقاء على حواجز قانونية وتشغيلية واضحة مع جدران حماية تقنية وضوابط قابلة للتدقيق. 

هذه الضمانات ضرورية لمنع البيانات من عبور الحدود دون إذن، وضمان عدم دمج البيانات المحلية في النماذج المتاحة عالميا دون موافقة صريحة. في غياب حواجز قابلة للتنفيذ، ستواجه الحكومات صعوبة في الحفاظ على الرقابة على الأنظمة الرقمية التي تؤثر على التمويل المحلي، والرعاية الصحية، والخدمات اللوجستية، والإدارة العامة. 

هذا يؤكد على موطن القوة الرئيسي الكامن في النهج المعماري: فهو يسمح لكل دولة بتحديد التوازن المفضل لديها بين المخاطر، والإبداع، والتجارة. 

تختلف المجتمعات في وجهات نظرها بشأن الخصوصية، والتجريب، وانفتاح السوق، والسلامة، وعلى هذا فمن غير الممكن أن يستوعب أي نموذج تنظيمي منفردا تفضيلات الجميع. لكن الأساس المعماري المشترك القائم على تدفقات البيانات الشفافة، وسلوك النموذج القابل للتتبع، ومبدأ «السيادة على الحوسبة» يمنح كل دولة المرونة اللازمة لمعايرة معاملاتها بنفسها. قد تكون الخطوط مشتركة، ولكن تظل السيادة للسياقات الوطنية. 

بالمقارنة بالنُهُج العالمية الحالية، يوفر النموذج المعماري مسارا أكثر توازنا وواقعية للمضي قدما. يشجع النظام الأميركي التجريب السريع لكنه لا يعترف بالضرر إلا بعد حدوثه. ويوفر النظام الأوروبي ضمانات قوية لكنه يتطلب قدرة عالية على الامتثال. ويحقق النظام الصيني السرعة من خلال المركزية، وهذا يجعله غير مناسب للحوكمة الموزعة. 

من خلال تضمين الشفافية والموافقة في الأنظمة الرقمية منذ البداية، يتيح النهج المعماري للإبداع الانطلاق إلى الأمام على نحو متوقع مع ضمان المساءلة العامة. 

تُعَد القمة العالمية للذكاء الاصطناعي في الهند فرصة مناسبة لكل الدول للنظر في مثل هذا الإطار. 

فالعالم في احتياج إلى نظام حوكمة مشترك مدمج في أسس هذه التكنولوجيا القوية. هذه هي الطريقة التي سنحمي بها المستخدمين، ونحافظ على السيادة، ونمنح كل دولة القدرة على إيجاد التوازن بين المخاطر والإبداع. 

في وقت حيث يعيد الذكاء الاصطناعي تشكيل كل قطاع من قطاعات الاقتصاد، يوفر النهج المعماري المسار الأكثر مصداقية وإنصافا إلى الأمام. 

 جايانت سينها وزير الدولة السابق للمالية ووزير الدولة للطيران المدني في الهند، وأستاذ زائر في كلية لندن للاقتصاد 

مقالات مشابهة

  • كيف يمكن أن تعمل حوكمة الذكاء الاصطناعي عالميًا؟
  • مستقبل الفضاء الإذاعي في ظل تطبيقات الذكاء الاصطناعي
  • عاجل- روبوت مزود بالذكاء الاصطناعي يطلق النار على إنسان خلال تجربة افتراضية على يوتيوب
  • سقوط أخطر المتورطين بقتل عسكريَّين… شعبة المعلومات تحسمها بعملية نوعية عالية الخطورة
  • هل يهدد الذكاء الاصطناعي التعليم والجامعات ؟
  • أين تستثمر في الذكاء الاصطناعي خلال 2026؟
  • أوبن أيه آي تطلق نموذج الذكاء الاصطناعي GPT-5.2 بعد تحسينات واسعة
  • بقيادة ترمب.. تشكيل تحالف دولي لمواجهة الهيمنة الصينية في الذكاء الاصطناعي
  • الذكاء الاصطناعي يساعد الأطباء في تحليل الصور الطبية
  • دراسة: الأنظمة الغذائية النباتية قد تكون صحية للأطفال.. ولكن بشروط