شمسان بوست / متابعات:

تتطور تقنية الذكاء الاصطناعي بسرعة هائلة، حيث أثرت وغيرت في العديد من جوانب حياتنا الحديثة. لكن بعض الخبراء يخشون من إمكانية استخدام هذه التقنية لأغراض ضارة.

فقد كشفت ورقة حكومية بريطانية، وضعها أكثر من 50 خبيراً، أنه بحلول عام 2025 يمكن استخدام الذكاء الاصطناعي لارتكاب عمليات احتيال وشن هجمات إلكترونية.


كما بينت أنه بحلول ذلك الوقت سيكون لدى هذه التقنية القدرة على “تعزيز القدرات الإرهابية” في تطوير الأسلحة والتخطيط للهجمات وإنتاج الدعاية، وفق صحيفة The Times.

كذلك شملت مجموعة المخاطر الأكثر فتكاً التي يمكن أن تنشأ بحلول 2030، “التضليل الجماعي” و”أزمة البطالة” حيث يستولي الذكاء الاصطناعي على وظائف منخفضة المهارات، واستخدام التكنولوجيا لمساعدة الإرهابيين على تطوير أسلحة بيولوجية.



“تهديد وجودي

وذكرت الورقة الصادرة عن المكتب الحكومي للعلوم، أنه لا توجد أدلة كافية لاستبعاد تهديد الذكاء الاصطناعي للإنسانية. واستناداً إلى مصادر، بما في ذلك المخابرات البريطانية، قالت الورقة إن العديد من الخبراء يعتقدون أن هذا “خطر ذو احتمالية منخفضة للغاية”.

مع ذلك، أضافت: “بالنظر إلى عدم اليقين الكبير في التنبؤ بتطورات الذكاء الاصطناعي، إلا أنه لا توجد أدلة كافية لاستبعاد أنه إذا تم ضبط أنظمة الذكاء الاصطناعي ذات القدرة العالية، بشكل غير صحيح أو لم يتم التحكم فيها بشكل كاف، يمكن أن تشكل تهديداً وجودياً”.

ولفتت إلى أن الذكاء الاصطناعي يمكنه بالفعل أداء “العديد من المهام المفيدة اقتصادياً” مثل تلخيص المستندات الطويلة وتحليل البيانات.



“ذكاء فائق” اصطناعي

كما أشارت الورقة إلى أنه من المرجح أن تصبح التكنولوجيا أكثر فائدة، ويمكن تنفيذ المهام بشكل أكثر كفاءة من البشر، لكنها لمحت إلى أنها لا تستطيع التنبؤ “بالقدرات الجديدة المحددة” التي سيكتسبها الذكاء الاصطناعي، حيث من المرجح أن تتطور الأساليب كثيراً.

وبحلول عام 2030، بحسب أحد السيناريوهات، فإنه يمكن لشركات التكنولوجيا تطوير “ذكاء فائق” اصطناعي قادر على إنجاز مهام معقدة وخداع البشر، وهو ما قد يشكل خطراً “كارثياً”.



كذلك حذرت من أن الذكاء الاصطناعي قد “يؤدي إلى تفاقم المخاطر السيبرانية الحالية بشكل كبير” في حالة إساءة استخدامه – من خلال شن هجمات إلكترونية بشكل مستقل.

المصدر: شمسان بوست

كلمات دلالية: الذکاء الاصطناعی

إقرأ أيضاً:

تراجع الهيمنة الأمريكية في سباق الذكاء الاصطناعي

صراحة نيوز- قال تحليل نشرته “فورين أفيرز” إن ريادة الولايات المتحدة العالم في مجال الذكاء الاصطناعي ربما بدأت تتلاشى.

أفاد التحليل بأنه على مدى السنوات القليلة الماضية، قادت الولايات المتحدة العالم في تطوير الذكاء الاصطناعي؛ حيث لعبت شركات أمريكية مثل OpenAI وGoogle وAnthropic وMeta دوراً محورياً في دفع عجلة الابتكار بفضل الجمع بين التميز الأكاديمي، والاستثمار الخاص، والتنظيم الحكومي الخفيف نسبياً. وحققت النماذج الأساسية الأمريكية مثل GPT وGemini تقدماً سريعاً في قدرات الاستدلال والمعالجة متعددة الوسائط وحل المشكلات العلمية، مما عزز حصتها في الأسواق العالمية وتفوقها على نظيراتها الصينية.

لكن بحلول أواخر عام 2024، بدأ هذا التفوق الأمريكي بالتلاشي. فقد حققت شركات الذكاء الاصطناعي الصينية مثل DeepSeek وBaidu وAlibaba وTencent تقدماً هائلاً، وقلصت الفجوة مع النماذج الأمريكية إلى بضع نقاط مئوية. ويعزى هذا التقدم إلى استراتيجية الصين المدفوعة من الدولة والتي تشمل استثمارات ضخمة في أشباه الموصلات والبنية التحتية للطاقة، وتنسيقاً وثيقاً بين القطاعين العام والخاص، ونظاماً تعليمياً يخرج كوادر متخصصة في الذكاء الاصطناعي، إلى جانب دمج الذكاء الاصطناعي في مختلف القطاعات، من التصنيع إلى الخدمات العامة.

وكانت شركة Xiaomi في بكين أحد أبرز الأمثلة على ذلك. ومصنع الشركة يستخدم أكثر من 700 روبوت مدعوم بالذكاء الاصطناعي لإنتاج سيارة كهربائية كل 76 ثانية. كما تستخدم المدن الصينية الذكاء الاصطناعي لإدارة حركة المرور والمراقبة والتنفيذ القانوني، وتقوم الحكومات المحلية بتجريب تطبيقات جديدة في التعليم والرعاية الصحية. وفي الوقت نفسه، قامت الشركات الصينية بتحسين برمجياتها لزيادة كفاءة استخدام العتاد المتوفر، مما خفف من تأثير القيود الأمريكية على تصدير الرقائق المتقدمة.

نتيجة لذلك، تواجه الولايات المتحدة واقعاً جديداً: تفوقها في الذكاء الاصطناعي لم يعد مضموناً. وقد أدركت إدارتا الرئيس الأمريكي السابق جو بايدن والرئيس الأمريكي الحالي دونالد ترامب هذه الحقيقة، فاتبعتا استراتيجيات لتأخير أو منع هذا التراجع من خلال فرض قيود على التصدير وتكثيف الابتكار المحلي عبر استثمارات في أشباه الموصلات والبنية التحتية واعتماد الذكاء الاصطناعي في الحكومة، خصوصاً في الأمن القومي والصحة ومكافحة الاحتيال.

ومع ذلك، لم يعد التفوق الأمريكي مسألة محسومة. ويبدو سباق الذكاء الاصطناعي الآن وكأنه ماراثون طويل الأمد. لذا، على صانعي السياسات في واشنطن أن يستعدوا لعالم تتقاسم فيه الولايات المتحدة الريادة مع قوى أخرى، أو حتى تحتل المرتبة الثانية. لكن هذا لا يعني تكرار أخطاء سباق الجيل الخامس (5G)، حيث تقدمت الصين بسرعة بينما عانت أمريكا من اللحاق بها. لكن بدلاً من ذلك، يجب أن تركز الاستراتيجية الأمريكية على المرونة والقدرة على التكيف والتعاون.

استراتيجية أكثر ذكاءً

ونصح التقرير بأنه بدلاً من التمسك بهيمنة غير مضمونة، يجب على الولايات المتحدة الاستثمار في أطر جديدة تبرز جاذبية نماذجها حتى لو لم تعد الأفضل في المقاييس التقليدية. يمكن لوكالة المعايير الوطنية (NIST) ومعهد سلامة الذكاء الاصطناعي تطوير معايير تقييم جديدة تتجاوز دقة الأداء إلى معايير مثل الشفافية، والأمان، وتكلفة التشغيل، وسهولة التعديل. هذه المعايير قد تكون أكثر أهمية للأسواق الناشئة، حيث تُفضل النماذج القابلة للتكيف والمضمونة والثابتة الكلفة على الأداء التقني البحت.

كما إنه يمكن لواشنطن الترويج لتوافق النماذج المختلفة على المستوى العالمي. فمع تزايد عدد النماذج الأساسية، سيبحث المستخدمون عن حرية التنقل بينها دون قيود أو تكاليف باهظة. ويمكن للشركات الأمريكية تسهيل هذا التحول عبر تقليل تكاليف التبديل، وتبسيط التهيئة، وتخفيض متطلبات التدريب والتجهيزات. كما يمكن للحكومة الأمريكية أن تقود جهوداً دولية لتوحيد بروتوكولات واجهات البرمجة (APIs) لجعل التكامل والتنقل بين النماذج أسهل، مما يقلل من الاعتماد على نموذج أو بلد واحد.

من جانب آخر، ينبغي على الولايات المتحدة تطوير طبقات وسيطة للبرمجيات تفصل بين التطبيقات والنماذج الأساسية. هذه الطبقات تقلل من التبعية لنموذج معين، وتتيح مرونة أكبر في التبديل إذا تغير النموذج أو ظهرت بدائل أفضل. وفي حال تفوقت النماذج الصينية، ستكون هذه الطبقات أداة حيوية لتقليل المخاطر مثل الرقابة أو تعطيل الخدمة.

وبالإضافة لذلك، سيكون من الضروري تطوير أنظمة “تحكيم” برمجية تقارن مخرجات نماذج مختلفة. ففي تطبيقات حرجة مثل التشخيص الطبي أو اكتشاف الاحتيال، يمكن لتلك الأنظمة تقييم الإجابات من نماذج موثوقة محلياً وأخرى أكثر كفاءة ولكن أجنبية، وتحذير المستخدم من الإجابات غير الدقيقة. ورغم أن هذا يضيف تكلفة ويبطئ الأداء، إلا أنه يضمن السلامة والموثوقية في مجالات حساسة.

أصعب التحديات

ووفقا للتحليل، فإنه من أصعب التحديات التي ستواجهها الولايات المتحدة هو تحديد متى وكيف تشارك بياناتها. ففرض حظر شامل على مشاركة البيانات مع الصين قد يبدو خياراً آمناً، لكنه قد يضر بالمصلحة العامة. فإذا أثبت نموذج صيني أنه أكثر فعالية في تشخيص الأمراض أو توقع الكوارث، فإن منع استخدامه قد يضر الصحة العامة أو الاقتصاد.

والحل الأمثل هو اعتماد سياسة مدروسة لمشاركة البيانات بناءً على تحليل الفوائد والمخاطر. ويمكن استخدام تقنيات مثل إخفاء الهوية، وتشفير البيانات، والخصوصية التفاضلية لتقليل خطر التسريب مع الحفاظ على الفائدة. ويجب على واشنطن وضع إرشادات واضحة لمتى تكون مشاركة البيانات مقبولة، وتدريب الحلفاء والشركاء، خاصة في الدول النامية، على الاستخدام الآمن والتنقل بين النماذج.

وشدد التقرير على أنه رغم أن شركات الخدمات السحابية الأمريكية مثل أمازون ومايكروسوفت وغوغل ما زالت تهيمن على أكثر من 60% من السوق العالمي مقارنة بـ4% فقط لعلي بابا، إلا أن هذه الهيمنة قد تتراجع. فالابتكار في الذكاء الاصطناعي قد يصبح أبطأ وأكثر تكلفة، مما يمنح الصين ذات التنسيق المركزي ميزة تنافسية.

والخطة الوطنية الجديدة للذكاء الاصطناعي التي ستُصدر في يوليو/تموز يجب أن تعكس هذا الواقع المتغير. وينبغي على أمريكا أن تعترف بأن الريادة مهمة ولكنها ليست مضمونة.

مقالات مشابهة

  • الذكاء الاصطناعي ولصوصية الإبداع
  • الذكاء الاصطناعي “يفكّر” كالبشر دون تدريب!
  • هل عبرنا الوادي الغريب ؟ الذكاء الاصطناعي يحاكينا صوتا وصورة
  • الأراجيف في زمن الذكاء الاصطناعي
  • تقنيات الذكاء الاصطناعي.. تحد حتمي
  • صحة كوردستان تكشف حقيقة وفاة شخص بسبب الذكاء الاصطناعي
  • تمكين الكفاءات السعودية في عصر الذكاء الاصطناعي
  • مجلس النواب يصدر أول تقرير مؤسساتي حول الذكاء الاصطناعي
  • متحدث الحكومة: "الرواد الرقميون" مبادرة للمستقبل لبناء قدرات الشباب في التكنولوجيا والذكاء الاصطناعي
  • تراجع الهيمنة الأمريكية في سباق الذكاء الاصطناعي