ابتكر باحثون في جامعة دارتماوث الأميركية أداة ذكاء اصطناعي توليدي للعلاج النفسي، لكي تكون بديلا عن ممارسات لا تخضع لأي تنظيم ويخشى المتخصصون في الصحة الذهنية من مخاطرها.
يقول نيك جاكوبسون "حتى لو زدنا عدد المتخصصين عشر مرات، فلن يكون ذلك كافيا" لتلبية الطلب الحالي على الدعم النفسي "لذا، نحن بحاجة إلى شيء مختلف للاستجابة".


وعلى مدى ست سنوات تقريبا، ابتكر الأستاذ في جامعة دارتماوث في الولايات المتحدة مع مجموعة من زملائه "تيرابوت" Therabot، وهو برنامج قائم على الذكاء الاصطناعي.
على عكس شركات ناشئة سبق أن طرحت تطبيقات ذكاء اصطناعي علاجية، ليس هؤلاء الباحثون في عجلة من أمرهم.
يقول مايكل هاينز، الطبيب النفسي والمشارك في قيادة المشروع "نحن نتحدث عن سنوات وليس أشهر" قبل أن تصبح الأداة متاحة عبر الإنترنت.
ويضيف "لا نزال بحاجة إلى التعمّق أكثر في ما يخص السلامة، حتى نتمكن من فهم كيفية عمله بشكل صحيح قبل إطلاقه".
ولتطوير أداته، استخدم الفريق في البداية نصوصا هي عبارة عن استشارات، ثم مقاطع فيديو تدريبية، لكنه وجد نفسه "أمام طريق مسدود"، على قول الطبيب النفسي نيك جاكوبسون.
ثم أدخل الفريق يدويا نماذج محاكاة من محادثات لتغطية أوسع مجال ممكن وضمان نوعية الإجابات.
في أواخر مارس الماضي، نشر الباحثون في دارتماوث أول دراسة سريرية من نوعها، أظهرت أن "تيرابوت" يحسّن حالة المرضى الذين يعانون من القلق أو الاكتئاب أو اضطرابات غذائية، مقارنة بمَن لم يستخدموه.
وبدأ الباحثون يعملون على تجربة جديدة ستقارن هذه المرة تأثيرات مساعدهم الذكي مع تأثيرات العلاجات التقليدية.
تقول فايل رايت، المسؤولة عن الابتكار في الجمعية الأميركية لعلم النفس "أرى مستقبلا مع روبوتات الدردشة التي يتم اختبارها علميا (...) وابتُكرت لأغراض الصحة الذهنية".
ولكن باستثناء "تيرابوت" الذي لم يصبح متاحا بعد "لا يوجد منتجات مماثلة في السوق"، على قولها.
وتضيف إنّ "بعض هذه المنتجات لم يتم ابتكارها حتى من خبراء".
يرفض هربرت باي، رئيس أداة "إيركيك" التي تضم أكثر من مئة ألف مستخدم معظمهم في الولايات المتحدة، الحكم المسبق الذي يُنسَب لشركات ناشئة أخرى، ويؤكد أنّ المعالج القائم على الذكاء الاصطناعي الخاص به والذي يحمل اسم "باندا" "آمن جدا".
ويقول رجل الأعمال "ما حدث مع كاركتر ايه آي Character AI لا يمكن أن يحدث مع أداتنا"، في إشارة إلى انتحار مستخدم لهذا التطبيق يبلغ 14 عاما في أكتوبر الماضي، وقد حمّلت والدته برنامج الدردشة الآلي مسؤولية ما حصل لابنها.
من الناحية النظرية، تقع الصحة الذهنية عبر الإنترنت ضمن نطاق صلاحية إدارة الغذاء والدواء الأميركية التي تقول إنّها "لا تعطي موافقات لتطبيقات الذكاء الاصطناعي"، مضيفة أن "العلاجات الرقمية لديها القدرة على تحسين إتاحة الدعم النفسي للمرضى".
أعدّت "إيركيك"، التي تجري حاليا دراسة سريرية، بحسب باي، تنبيهات في حالة الأزمة أو الأفكار الانتحارية، يرصدها نموذج الذكاء الاصطناعي في المحادثة.
ويقول باي "إن الحالات الخطرة جدا لا يمكن معالجتها بالذكاء الاصطناعي. نحن هنا للدعم اليومي".
ويضيف إنّ "الاتصال بالمعالج النفسي عند الساعة الثانية ليلا أمر غير ممكن"، بينما يكون روبوت الدردشة متاحا على مدار الساعة طوال أيام الأسبوع.
يعاني دارين من اضطراب ما بعد الصدمة، ويستخدم برنامج "تشات جي بي تي" الذي على عكس "ايركيك" و"تيرابوت" ليس مصمما خصيصا للصحة النفسية.
ويقول "أشعر أن الأمر يسير بشكل جيد لي"، مع أنه يأمل في بدء جلسات مع معالج بشري قريبا. ويوضح "أوصي به للأشخاص الذين يعانون من قلق ومحنة".
تقول دارلين كينغ من الجمعية الأميركية للطب النفسي "إذا كان من الممكن استخدام هذه التكنولوجيا بأمان تحت إشراف متخصص، فأرى فيها إمكانات كبيرة"، مشيرة إلى أن التطبيقات المتداولة حاليا لا تُستخدم تحت إشراف متخصص.
وتضيف "قبل أن نتمكن من دعم الذكاء الاصطناعي التوليدي للعلاج، يتعيّن الإجابة على أسئلة كثيرة عالقة بشأن الفوائد والمخاطر".
يريد مايكل هاينز ونيك جاكوبسون أن يكون "تيرابوت" أداة غير ربحية لتجنب هذه الانتهاكات المحتملة وجعل الخدمة متاحة "للناس حتى لو كانوا عاجزين عن الدفع للحصول عليها"، بحسب هاينز.
ويتابع "في بعض الأحيان، يكون هؤلاء بحاجة إلى مساعدة أكثر من غيرهم".

أخبار ذات صلة محمد بن راشد: إعداد الأجيال القادمة لمستقبل مختلف وعالم جديد ومهارات متقدمة الروبوتات المنزلية تحمي أطفالك من المخاطر المصدر: آ ف ب

المصدر: صحيفة الاتحاد

كلمات دلالية: الذكاء الاصطناعي العلاج النفسي الصحة النفسية الذکاء الاصطناعی

إقرأ أيضاً:

دور الذكاء الاصطناعي والتقنيات الناشئة في الصراعات العسكرية

حتى الآن يعد الإنسان الكائن المهيمن على كوكب الأرض، رغم أنهم ليسوا الأقوى أو الأسرع أو الأكثر مرونة، فالإنسان كائن معرّض للخطر بدرجة كبيرة، إذ تستطيع الكثير من الحيوانات أن تقتله بسهولة إذا شعرت بأنه يشكل تهديدًا لها، ومع ذلك، تظل البشرية هي القوة المسيطرة على الأرض، فما الذي يمتلكه البشر ولا تمتلكه الكائنات الأخرى وما علاقة الأمر بعنوان المقالة؟

تكمن هذه القوى في عقل الإنسان، حيث يمتلك من الذكاء ما يجعله قادرا على حل المشكلات والتخطيط، كذلك من بين الميزات التي يمتلكها الإنسان أيضًا هي ميزة التعاون مع بعضهم بعضًا، وهذا يسمح لهم بالعمل معًا بشكل فعال لتحقيق أهداف مشتركة، مثل الصيد، وبناء الملاجئ، والدفاع ضد الحيوانات المفترسة، وأخيرا، أصبحت للإنسان القدرة على استخدام أدوات مختلفة الأمر التي تعطيه ميزة كبيرة فيما يتعلق بالصيد والتجمع والحرب. هل توصلت إلى العلاقة بين الكلام أعلاه وعنوان المقالة؟

لنأخذ هذا المثال، لا يستطيع الثعبان أن يخلق لنفسه ظروفًا جديدة، ولكنه يستطيع مطاردة الفريسة بسُمه ويعود إلى المنزل عندما يشعر بالشبع دائمًا، وهذا هو الشيء الوحيد الذي يمكن للثعبان أن يفعله، ولن يكون قادرًا أبدًا، على سبيل المثال، على تطوير طريقة لتوظيف ثعابين أخرى للقيام بعمله نيابة عنه، كذلك لا تستطيع الطيور التفكير في كيفية تحسين أعشاشها، لذا فهي ببساطة تستخدم نفس التصميم الأساسي في جميع «إبداعاتها المعمارية». والآن أتوقع اقتربنا إلى صلب الموضوع.

إذن، كل هذا يمكن أن يفعله الإنسان بفضل الذكاء التي يتمتع به، حيث تمكن الإنسان من ترويض الكائنات الأرضية الأخرى لخدمة مصالحه الخاصة، التي تكون في الغالب ذات طابع أناني. ويمكننا هنا ملاحظة نمط واضح وهو عند دخول كائن جديد إلى المنظومة البيئية، والذي يتمتع بتفوق عقلي ملحوظ، يصبح قادرًا على إخضاع الكائنات التي تفتقر إلى مثل هذه القدرات.

وقد يتساءل البعض: لماذا هذه المقدمة الطويلة؟ الجواب ببساطة لأننا نعيش لحظة فارقة في تاريخ البشرية، تُعيد صياغة السؤال القديم بطريقة جديدة: هل يمكن للذكاء الاصطناعي، بما يمتلكه من تفوق عقلي متزايد، أن يروّض الإنسان كما روّض هو من قبله الكائنات الأخرى؟

نناقش في هذه المقالة سلسلة من بعض المواضيع ذات الصلة التي تم التطرق لها في المنتدى الدولي السنوي الثاني للقضايا الاستراتيجية والاتجاهات العالمية تحت عنوان «التقنيات الناشئة في مجال الدفاع: من التطوير إلى التأثير» والتي نظمته كلية الدفاع الوطني في فبراير الماضي.

الصراعات المسلحة باستخدام الذكاء الاصطناعي

إن العالم على أعتاب عصر جديد من الحروب التي ستعتمد بشكل مباشر على القرارات التي تتخذها الذكاء الاصطناعي المتقدم، وتسمى هذه الأنظمة رسميًّا بأنظمة الأسلحة القاتلة المستقلة (LAWs)، ولكن يشار إليها عادةً باسم «الروبوتات القاتلة».

وكانت وكالة مشاريع أبحاث الدفاع المتقدمة (داربا) أحد أكبر مصادر تمويل أبحاث الذكاء الاصطناعي، وهي وكالة تابعة لوزارة الدفاع الأمريكية ومسؤولة عن تطوير تقنيات جديدة للاستخدام العسكري، كما قامت الحكومة الهندية مؤخرًا بزيادة التمويل العسكري بشكل كبير لتطوير تطبيقات أو أنظمة جديدة ومتقدمة باستخدام الذكاء الاصطناعي. أما في الحرب الروسية الأوكرانية، استُخدم الذكاء الاصطناعي بطرق متعددة، شملت اتخاذ قرارات استراتيجية على نطاق واسع، مثل تحديد كيفية التصرف بناءً على معلومات استخباراتية آنية أو حديثة على المستوى المحلي، وصولاً إلى تنفيذ مهام روتينية أكثر، كالتنبؤ بالتحديات اللوجستية.

نظام «لافندر» هو أداة تعتمد على الذكاء الاصطناعي طُورت من قبل الجيش الإسرائيلي، ويُستخدم لتحديد مواقع واستهداف عناصر يُشتبه بانتمائهم لحركة حماس أو فصائل مسلحة في غزة. يعتمد النظام على تحليل كميات هائلة من البيانات، بما في ذلك المكالمات الهاتفية، ووسائل التواصل الاجتماعي، والبيانات السكنية، وعلاقات الأفراد.

يقوم النظام بتحديد الأهداف بناءً على أنماط السلوك والارتباطات الشخصية، ثم يُسلّم هذه الأهداف إلى وحدات العمليات العسكرية لتنفيذ الضربات. تقارير صحفية تفيد بأن النظام قادر على تحديد آلاف الأهداف يوميًّا، ما يرفع من وتيرة الضربات، ورغم الكفاءة الظاهرة، يثير استخدام «لافندر» جدلًا كبيرًا لعدة أسباب:

• الاعتماد على الذكاء الاصطناعي قد يؤدي إلى أخطاء مميتة، خاصة إذا تم استهداف منازل دون تحقق بشري كافٍ.

• الخسائر البشرية: تقارير تشير إلى مقتل مدنيين -من نساء وأطفال- بسبب ضربات مبنية فقط على ترشيحات النظام.

• الأسئلة الأخلاقية والقانونية: هل يجوز الاعتماد على خوارزميات لتحديد من يعيش ومن يموت؟ وهل ذلك يتماشى مع القانون الدولي الإنساني؟

نظام لافندر يجسد قفزة تكنولوجية في الحروب الحديثة، لكنه يفتح أبوابًا واسعة للنقاش حول الأخلاق، المساءلة، وحماية المدنيين في النزاعات المسلحة.

ويتوقع الباحثون أن يصبح الذكاء الاصطناعي جزءا حيويا من الحرب الحديثة وأحد الأسباب الرئيسية لذلك هو حقيقة أن الذكاء الاصطناعي قادر على معالجة كميات كبيرة من البيانات الواردة بكفاءة عالية.

السيناريوهات المحتملة لاستخدام الذكاء الاصطناعي في القوات المسلحة والدفاع:

يتم استخدام الذكاء الاصطناعي من قبل المنظمات العسكرية والدفاعية في مجموعة متنوعة من الطرق مثل: الأمن السيبراني، والخدمات اللوجستية والنقل، والتعرف على الأهداف، والرعاية الطبية، ومحاكاة القتال، وتدريب الجنود، وفيما يلي بعض حالات استخدام الذكاء الاصطناعي الشائعة:

• الوعي بالموقف في الوقت الفعلي: تُستخدم خوارزميات الذكاء الاصطناعي لمعالجة كميات كبيرة من البيانات من مصادر مختلفة (طائرات دون طيار، وأقمار صناعية، وتقنيات إنترنت الأشياء التي تمثل جميع أنواع المستشعرات) لفهم ساحة المعركة، وكيفية تغيرها مع مرور الوقت وكذلك الكشف السريع عن التهديدات.

• الصيانة التنبؤية: يتم استخدام خوارزميات الذكاء الاصطناعي للتنبؤ بفشل المعدات واحتياجاتها للصيانة في الوقت المناسب، مما يقلل بشكل كبير من وقت التوقف ويزيد من الجاهزية التشغيلية للجيش.

• الأسلحة المستقلة: يتم استخدام خوارزميات الذكاء الاصطناعي لتطوير أسلحة مستقلة، مثل الطائرات دون طيار والمركبات الأرضية غير المأهولة، والتي يمكنها أداء مجموعة من المهام دون أي تدخل بشري على الإطلاق.

• الأمن السيبراني: يتم استخدام خوارزميات الذكاء الاصطناعي للكشف عن الهجمات السيبرانية ومنعها، ما يعزز الأمن السيبراني الشامل للشبكات والأنظمة العسكرية.

• اتخاذ القرار: وهنا يتم استخدام خوارزميات الذكاء الاصطناعي لمساعدة صنّاع القرار من خلال توفير التحليلات والتوصيات في الوقت الفعلي، مما يقلل بشكل كبير من الوقت الذي يستغرقه اتخاذ قرارات مستنيرة في ظل ظروف مرهقة وعالية الخطورة.

لماذا الذكاء الاصطناعي مهم جدًا للجيش؟

من الجدير بالذكر أن استخدام الذكاء الاصطناعي في المجال العسكري والدفاعي يثير أسئلة أخلاقية ومعنوية مهمة، وهو موضوع نقاش عام مستمر.

الذكاء الاصطناعي مهم للغاية بالنسبة للجيش؛ لأنه قادر على تسهيل العديد من المهام، فمثلا يمكن تكليف طائرة من دون طيار أو نوع من الكلاب الروبوتية ببعض المهام الخطيرة التي يقوم بها الجنود الأحياء عادة، ما يقلل من خطر الخسائر ويحسّن القدرة القتالية للقوات.

سيستخدم الجيش الذكاء الاصطناعي بشكل نشط لتحليل القرارات المحتملة واتخاذ القرار الأمثل، وعندما تتم ترقية هذه الأنظمة بشكل كبير، يمكن نقل قرارات معينة بشكل كامل إلى الآلة، بحيث يتمكن القادة من التركيز على مهام أكثر أهمية.

أمثلة محددة لاستخدام الذكاء الاصطناعي في الصناعة العسكرية:

• على سبيل المثال، يمكن استخدام الطائرات من دون طيار المزودة بالذكاء الاصطناعي للبحث عن الأهداف وتحديدها أو جمع المعلومات الاستخبارية عن مواقع العدو وتحركاته، ويمكن أيضًا استخدام خوارزميات الذكاء الاصطناعي لمعالجة وتحليل كميات هائلة من البيانات التي تجمعها هذه الطائرات من دون طيار، مما يسمح للجيش بتحديد التهديدات المحتملة والاستجابة لها بسرعة.

• ويجري أيضًا البحث والتطوير في مجال الذكاء الاصطناعي لإنشاء أنظمة أسلحة متقدمة. الأسلحة المستقلة، والمعروفة أيضًا باسم أنظمة الأسلحة المستقلة القاتلة كما تم ذكرها سابقا، فهي أنظمة قادرة على اختيار الأهداف ومهاجمتها دون تدخل بشري، ولكن هناك الكثير من الجدل حول الآثار الأخلاقية والقانونية لمثل هذه الأسلحة، وتعارض العديد من الدول والمنظمات الدولية استخدام هذا النوع من الأسلحة، وعلى الرغم من الإطار القانوني الهش والمخاوف الأخلاقية، فإن البحث والتطوير لمثل هذه الأنظمة مستمر في بعض البلدان.

• يتم استخدام الذكاء الاصطناعي لتحسين الخدمات اللوجستية وإدارة سلسلة التوريد، فعلى سبيل المثال، يمكن استخدام خوارزميات الذكاء الاصطناعي لتحسين طرق القوافل العسكرية، مما يقلل من استهلاك الوقود وخطر الهجوم، وأيضا للتنبؤ بأعطال المعدات ووضع جدول لصيانتها.

• طائرات دون طيار لإزالة الألغام يمكنها استخدام الخرائط لتحليل وتحديد الألغام، أو إبطال مفعولها، أو نقلها بأمان إلى موقع آخر.

• إن محاكاة القتال في الواقع الافتراضي يمكن أن تساعد في إعداد الجنود للمشاركة في صراع مسلح حقيقي.

• خوذات قتالية بتقنية الواقع المعزز تعمل على تحليل البيئة المحيطة أو توفير رؤية أكثر تحديدًا.

• أنظمة دفاع جوي أكثر فعالية تعمل على تحليل المقذوفات المعادية أثناء الطيران بشكل تفصيلي لتحسين أداء ودقة هذه الأنظمة وتقليل خطر الإنذارات الكاذبة.

ومن المهم أن نلاحظ أنه في حين يتم استخدام الذكاء الاصطناعي بشكل متزايد للأغراض العسكرية اليوم، فإن معظم السيناريوهات المذكورة أعلاه لا تزال في مرحلة البحث والتطوير النشطة.

ماذا سيحدث إذا بدأت البشرية باستخدام الذكاء الاصطناعي في الحروب في كل مكان؟

من الممكن تحديد عدد من العواقب المحتملة لاستخدام الذكاء الاصطناعي على نطاق واسع للأغراض العسكرية:

• زيادة القدرة القاتلة: يمكن أن تكون الأسلحة التي تعمل بالذكاء الاصطناعي أكثر دقة وأكثر فتكًا من الأسلحة التقليدية، مما يؤدي إلى سقوط عدد أكبر بكثير من الضحايا البشرية.

• أشكال جديدة من الحرب: يمكن استخدام الذكاء الاصطناعي لتطوير أشكال جديدة من الحرب مثل الحرب السيبرانية وأنظمة الأسلحة المستقلة.

• التحدي أمام القانون الدولي: إن استخدام الذكاء الاصطناعي في الحروب قد يشكل تحديًا للقانون الدولي القائم، مثل اتفاقية جنيف.

مخاطر وفوائد الذكاء الاصطناعي في المجال العسكري:

إن استخدام الذكاء الاصطناعي للأغراض العسكرية ينطوي على مخاطر وفوائد.

المخاطر المحتملة:

• الأسلحة المستقلة: أحد المخاطر هو تطوير أسلحة مستقلة بالكامل يمكنها اتخاذ قرارات معينة دون تدخل بشري، وتثير مثل هذه التطورات المخاوف بشأن الحوادث المحتملة أو سوء الاستخدام أو السلوك غير الأخلاقي، حيث من المرجح أن يصبح الإنتاج الضخم ونشر الروبوتات القاتلة المستقلة ممكنًا قريبًا جدًا. ليس هناك شك في أن التطوير النشط لهذا النوع من الأسلحة مستمر منذ فترة طويلة. والطائرات دون طيار شبه المستقلة والصواريخ الروبوتية موجودة بالفعل.

• الافتقار إلى الحكم البشري: قد يؤدي الاعتماد الكبير على الذكاء الاصطناعي إلى انخفاض دور الحكم البشري، مما قد يؤدي بمرور الوقت إلى تحول متزايد للمسؤولية عن القرارات الحاسمة إلى الذكاء الاصطناعي. وبمرور الوقت، قد يؤدي هذا إلى أن تمتلك هذه الأنظمة المستقلة قدرًا كبيرًا من الصلاحيات.

• التعرض للهجمات السيبرانية: قد تكون أنظمة الذكاء الاصطناعي عرضة للهجمات السيبرانية، مما قد يؤدي إلى الوصول غير المصرح به، أو التخريب، أو التلاعب، أو تعطيل العمليات العسكرية.

• زيادة خطر التصعيد: إن استخدام الذكاء الاصطناعي في الحروب قد يزيد من خطر تصعيد الصراعات حيث تتنافس العديد من البلدان على تطوير أسلحة أكثر تطورًا تعمل بالذكاء الاصطناعي.

يُعد استخدام الذكاء الاصطناعي في المجالات العسكرية سلاحًا ذا حدين، إذ يمكن أن يسهم في تعزيز الكفاءة والقدرات الدفاعية، لكنه في الوقت ذاته يثير تحديات أخلاقية وأمنية خطيرة. إن التوازن بين الابتكار والرقابة ضروري لتفادي سوء الاستخدام وضمان الحفاظ على القيم الإنسانية. لذلك، من المهم وضع أطر قانونية وأخلاقية واضحة لتنظيم استخدام هذه التقنيات المتقدمة.

الفوائد المحتملة:

• زيادة الكفاءة: يمكن للذكاء الاصطناعي تحسين الجودة الشاملة للعمليات العسكرية من خلال أتمتة المهام الروتينية، مما يتيح للقادة اتخاذ قرارات أكثر أهمية.

• نهج متعدد الأوجه: يمكن لأنظمة الذكاء الاصطناعي تحليل كميات كبيرة من جميع أنواع البيانات، مما يوفر للعسكريين صورة كاملة عما يحدث من أجل تحسين الوعي الظرفي والتخطيط الاستراتيجي عالي الجودة.

• تقليل الخسائر البشرية: إن استخدام الذكاء الاصطناعي في بعض المهام العسكرية، مثل المراقبة أو إبطال القنابل، لديه القدرة على تقليل المخاطر التي يواجها الأفراد وتجنب الخسائر غير الضرورية.

• الدقة: يمكن لأنظمة الذكاء الاصطناعي تحسين دقة العمليات العسكرية، مثل استخدامها في أنظمة التوجيه، مما يقلل من الأضرار الجانبية ويحسن فعالية القتال.

ويعتقد العديد من الخبراء أن المخاطر المرتبطة باستخدام الذكاء الاصطناعي في الجيش، وخاصة في إنشاء أسلحة مستقلة بالكامل، تفوق أي فوائد محتملة، فمن الأعطال الفنية المحتملة والخسائر البشرية غير الضرورية إلى انتهاكات القانون الدولي والمخاوف الأخلاقية بشأن الآلات عديمة المشاعر التي تتخذ قرارات تتعلق بالحياة أو الموت.

إن تحقيق التوازن الصحيح بين التحكم البشري وقدرات الذكاء الاصطناعي أمر بالغ الأهمية لضمان الاستخدام العسكري المسؤول والأخلاقي لهذه التكنولوجيا.

وهنا نختم المقال بسؤال مفتوح على المستقبل: هل يمكن للذكاء الاصطناعي أن يحل محل الجنود البشر يومًا ما؟

تُشير التطورات الجارية إلى أن الجواب قد لا يكون مستبعدًا بالكامل، فالجيش الأمريكي، على سبيل المثال، يعمل بنشاط على تطوير تطبيقات الذكاء الاصطناعي في شتى مجالات العمليات العسكرية، ورغم أن هذه التقنيات لم تُستخدم بعد بكامل طاقتها، فإن ما تملكه من إمكانيات يجعلها مرعبة إذا وُظفت بطريقة خبيثة.

ومع ذلك، يظل من غير الواقعي -في الوقت الراهن على الأقل- أن نتخيل استبدال الجيوش البشرية بشكل كامل بأنظمة ذكاء اصطناعي قادرة على حماية دول بأكملها، عبر دوريات ذكية وإبادة فورية لأهداف محددة باستخدام أسلحة مستقلة بالكامل، لكن ما يمكن تخيله بوضوح هو أن تُسهم هذه التقنيات في تقليل الخسائر البشرية، وتحسين دقة الضربات الجوية بواسطة الطائرات من دون طيار، وتطوير أنظمة قتالية شبه مستقلة تُساند الجندي دون أن تُلغيه.

ما يدعو للقلق حقًا

الخطر الأكبر في الذكاء الاصطناعي العسكري لا يكمن في الروبوتات القاتلة التي تتجول خارجة عن السيطرة، كما تُصورها بعض أفلام الخيال العلمي، بل في الأشخاص الذين يمتلكون النوايا السيئة ويرغبون في تسخير هذه الأدوات الفتاكة لتحقيق أجنداتهم الشخصية والأنانية.

فالذكاء الاصطناعي، في جوهره، أداة محايدة، قوته تكمن فيمن يستخدمه، ولأي غاية، لذا المفتاح الحقيقي هو الوعي بالمخاطر الكامنة، وضرورة وضع ضوابط وأطر أخلاقية وتشريعية تضمن استخدامه في خدمة الأمن والسلام، لا لتعميق الصراعات والدمار.

د. محمود البحري أستاذ مساعد ومنسق برنامج الحوسبة والوسائط المتعددة - كلية الحاسوب وتقنية المعلومات بجامعة صحار

مقالات مشابهة

  • ورشة عمل عن الذكاء الاصطناعي في مجال ريادة الأعمال بمكتبة الإسكندرية
  • مختص: لن نستطيع الاستغناء عن الذكاء الاصطناعي.. فيديو
  • دور الذكاء الاصطناعي والتقنيات الناشئة في الصراعات العسكرية
  • كيف يقودك الذكاء العاطفي إلى المرحلة الملكية من النضج والسلام النفسي .. فيديو
  • حمدان وسلطان الشحي.. «رحلة توأم في عصر الذكاء الاصطناعي»
  • مميزات جديدة لواتساب من خلال الذكــاء الاصطناعي ..فيديو
  • كم من الأطفال يجب أن يَـقـتُـل الذكاء الاصطناعي؟
  • بحث التعاون بين بنك البذور الوطني والسفارة الأميركية في مجال تعزيز التنوع الحيوي
  • القانون يواجه منتحلي مهنة العلاج النفسي .. اعرف الإجراءات
  • معالجة نفسية تحذر: تجاوز الحدود المهنية في العلاج النفسي يضر بالمريض