هل يعيد الذكاء الاصطناعي صياغة استراتيجيات الحرب والسلام؟
تاريخ النشر: 19th, November 2024 GMT
يعيد الذكاء الاصطناعي تشكيل الاستراتيجيات العسكرية والدبلوماسية، ما يجعله عاملا حاسما في تحديد النظام العالمي الجديد، حسب مقال نشرته مجلة "فورين أفيرز" مقتبسا من كتاب "جينيسيس: الذكاء الاصطناعي، الأمل، والروح الإنسانية".
وأوضح الكُتاب المؤلفون للكتاب وهم هنري كيسنجر، وإريك شميدت، وكريغ موندي، أن الذكاء الاصطناعي يتميز بقدرته على اتخاذ قرارات استراتيجية خالية من الانحياز والخوف، ما يفتح آفاقا جديدة للموضوعية في إدارة الأزمات.
ومع ذلك، يشدد المؤلفون في المقال المقتبس عن كتابهم المشترك، على أن هذه الموضوعية يجب أن تتكامل مع الجانب الإنساني لضمان الاستخدام الأخلاقي والمسؤول للقوة، إذ يمكن أن يكشف الذكاء الاصطناعي عن أفضل وأسوأ ما في الإنسانية، سواء كوسيلة لشن الحروب أو لإنهائها.
وأشار المقال إلى أن البشرية سعت تاريخيا لتحقيق توازن يمنع الهيمنة المطلقة لدولة واحدة، معتمدة على قواعد مشتركة تتطور مع الزمن. ولكن في عالم يتطور فيه الذكاء الاصطناعي ليصبح كيانا سياسيا ودبلوماسيا وعسكريا مستقلا، قد تنهار هذه القواعد، ويحل محلها نظام غير مستقر وفوضوي.
الذكاء الاصطناعي وتوازن القوى
يوضح المؤلفون أن النظام الدولي القائم على التوازن التقليدي للقوى قد ينهار إذا كانت بعض الدول أكثر تقدما في الذكاء الاصطناعي من غيرها. في سيناريو مشابه، قد تجد الدول الأقل تقدما تقنيا نفسها عاجزة عن المنافسة أمام قوى تعتمد على الذكاء الاصطناعي، مما يؤدي إلى زعزعة الاستقرار الدولي. وفي الحالات التي قد تواجه فيها دول ذات اعتماد مكثف على الذكاء الاصطناعي خصومًا أقل تقدمًا تقنيًا أو حتى تقنيات ذكاء اصطناعي مستقلة، قد تجد البشرية صعوبة في الحفاظ على التوازن التقليدي للقوى.
وأضافوا أن الذكاء الاصطناعي قد يغيّر من طبيعة الحرب نفسها، إذ قد تلجأ الآلات إلى اتخاذ قرارات استراتيجية غير مألوفة. على سبيل المثال، يمكن للآلات أن تختار تقسيم الموارد أو الأراضي بناء على حسابات دقيقة، ما قد يمنع الحرب التقليدية لكنه يثير حروبًا من نوع آخر أكثر تعقيدًا، مثل الحروب السيبرانية أو الصراعات غير المباشرة.
سباق الذكاء الاصطناعي
يرى المؤلفون أن سباق تطوير الذكاء الاصطناعي بين الدول قد يؤدي إلى حالة من انعدام الثقة والقلق المتبادل بين القوى الكبرى، حيث تسعى كل دولة للحصول على ميزة تقنية قد تكون حاسمة في أي صراع مستقبلي. مثل هذا السباق قد يؤدي إلى تطوير تقنيات يمكنها تخريب جهود الدول المنافسة، كما حدث مع فيروس “ستوكسنت” الذي استهدف برنامج إيران النووي عام 2010.
وقد تكون أولويات الدول التي تمتلك ذكاء اصطناعيا خارقا هي منع الآخرين من تطوير تقنيات مشابهة، ما قد يؤدي إلى استخدام أساليب خفية لتقويض برامج المنافسين أو نشر معلومات مضللة لإضعاف المجتمعات من الداخل.
التكنولوجيا والصراعات
يشير المقال إلى أن الذكاء الاصطناعي قد يغير من طبيعة الحروب، حيث تصبح الطائرات المسيرة (الدرونز) أكثر سرعة ومرونة، وتعمل في تشكيلات ضخمة كأنها كائن واحد متكامل. في المقابل، قد تصبح الأسلحة التقليدية غير فعالة في مواجهة أسراب الطائرات المسيّرة، مما يدفع نحو تطوير تقنيات دفاعية تعتمد على الذكاء الاصطناعي، مثل استخدام أسلحة تعتمد على الفوتونات أو الإلكترونات بدلاً من الذخيرة التقليدية.
كما أن الذكاء الاصطناعي سيجعل تحديد الأهداف أكثر دقة، ما قد يقلل من الأضرار الجانبية. ومع ذلك، يثير هذا التطور تساؤلات حول حدود المسؤولية البشرية، إذ يمكن للآلات اتخاذ قرارات حاسمة دون أي اعتبار للأبعاد الإنسانية.
إعادة تعريف السياسة الدولية
أوضح المقال أن الذكاء الاصطناعي قد يعيد صياغة العلاقات الدولية. فمن ناحية، يمكن للدول التي تستثمر في الذكاء الاصطناعي أن تكتسب هيمنة سياسية وعسكرية. ومن ناحية أخرى، قد تزداد قوة الشركات الكبرى التي تطور هذه التكنولوجيا، لتصبح جهات ذات نفوذ يضاهي أو يتجاوز نفوذ الدول.
كما قد يؤدي انتشار الذكاء الاصطناعي إلى ظهور كيانات صغيرة أو جماعات تعتمد على تقنيات محدودة لكنها فعالة. وقد تصبح هذه الجماعات قادرة على إدارة شؤونها والدفاع عن نفسها، مما يفتح المجال لنماذج جديدة من الحكم اللامركزي، أو حتى لحالة من الفوضى المنظمة.
الجانب الأخلاقي والمستقبل
ينبه المؤلفون إلى أن الاعتماد على الذكاء الاصطناعي قد يؤدي إلى أزمة هوية للبشرية. فإذا تمكنت الآلات من حل النزاعات وإدارة الأزمات بشكل أفضل من البشر، قد يؤدي ذلك إلى فقدان الثقة في القدرات الإنسانية، وزيادة الاعتماد على التكنولوجيا.
في الوقت نفسه، قد يكون للذكاء الاصطناعي دور محوري في تحقيق السلام العالمي. إذ يمكنه تقديم حلول مبتكرة للصراعات التي استعصت على البشر، لكنه قد يدفعنا إلى تسليم جزء من السيطرة على مصيرنا إلى الآلات، مما يثير تساؤلات أخلاقية عميقة، وفقا للمقال.
وخلص المقال إلى أن الدمج المسؤول للذكاء الاصطناعي في نظمنا السياسية والعسكرية هو التحدي الأكبر الذي يواجه البشرية. ومع ذلك، قد يكون للذكاء الاصطناعي القدرة على إعادة تعريف مفاهيم السلام والقوة، مما يدفع العالم نحو عصر جديد يتجاوز الحدود التقليدية للعلاقات الدولية.
المصدر: عربي21
كلمات دلالية: سياسة اقتصاد رياضة مقالات صحافة أفكار عالم الفن تكنولوجيا صحة تفاعلي سياسة اقتصاد رياضة مقالات صحافة أفكار عالم الفن تكنولوجيا صحة تفاعلي صحافة صحافة إسرائيلية الذكاء الاصطناعي البشرية التكنولوجيا تكنولوجيا البشرية الذكاء الاصطناعي سياسة سياسة صحافة صحافة صحافة صحافة صحافة صحافة صحافة صحافة صحافة صحافة سياسة اقتصاد رياضة صحافة أفكار عالم الفن تكنولوجيا صحة على الذکاء الاصطناعی الذکاء الاصطناعی قد أن الذکاء الاصطناعی قد یؤدی إلى تعتمد على إلى أن
إقرأ أيضاً:
خبراء يحذرون: الذكاء الاصطناعي ليس بديلًا آمنا للعلاج النفسي
مع التوسع المتزايد في استخدام تقنيات الذكاء الاصطناعي في شتى المجالات، بدأ البعض يلجأ لهذه الأدوات كمساعدات نفسية، أو حتى كبدائل عن الأطباء المختصين إلا أن خبراء الصحة النفسية يحذرون من هذه الممارسات، ويؤكدون أنها قد تحمل عواقب خطيرة على الصحة النفسية والخصوصية الشخصية.
خبراء يحذرون: الذكاء الاصطناعي ليس بديلًا آمنا للعلاج النفسيوفي هذا السياق، صرحت الدكتورة يكاتيرينا أورلوفا، نائبة مدير معهد علم النفس السريري والعمل الاجتماعي بجامعة بيروغوفسكي الروسية، لصحيفة "غازيتا.رو"، بمجموعة من التحذيرات الهامة.
قالت أورلوفا إن "الذكاء الاصطناعي لا يمكنه تقديم دعم نفسي مؤهل، لأنه يفتقر إلى التعاطف الحقيقي، وغير قادر على التقاط الإشارات غير اللفظية الدقيقة التي تحمل في طياتها معانٍ نفسية عميقة".
وأشارت إلى خطورة أن يفشل النظام في لحظات حرجة من اليأس أو الاضطراب النفسي، وربما يقدّم نصائح غير ملائمة أو حتى مؤذية.
خطر على خصوصية المرضىأحد أكبر التحديات في الاعتماد على الذكاء الاصطناعي في العلاج النفسي هو الخصوصية وأوضحت أورلوفا: المشاعر والمخاوف التي يبوح بها المستخدم للذكاء الاصطناعي يمكن أن تُستخدم بشكل ضار إذا وقعت في أيدي جهات غير نزيهة، خاصة أن إعادة التعرف على هوية الأشخاص من بيانات مجهولة أصبح أمرًا ممكنًا في بعض الحالات.
وشدّدت الخبيرة على أن خوارزميات الذكاء الاصطناعي ليست محايدة، فهي تتعلم من بيانات أنشأها بشر يحملون تحيّزاتهم، مما يجعل الذكاء الاصطناعي عرضة لإعادة إنتاج الصور النمطية أو التمييز ضد فئات معينة من المرضى النفسيين.
أشارت أورلوفا إلى أن الخطر الأكبر يتمثل في خلق وهم لدى الناس بأن الذكاء الاصطناعي يمكنه أن يحل محل الطبيب النفسي، ما قد يؤدي إلى تأجيل طلب المساعدة الحقيقية حتى في الحالات الحرجة.
في الختام، رغم أن الذكاء الاصطناعي يمكن أن يكون أداة مساعدة في جمع البيانات أو تقديم دعم أولي، فإنه لا يجب اعتباره بديلًا للعلاج النفسي الحقيقي الذي يقدمه مختصون قادرون على التفاعل الإنساني والتعاطف وفهم السياق العاطفي بدقة.