- الإفراط في تبنّي التقنية يضعف مهارات التواصل الإنساني لدى الكوادر الطبية

- خصوصية المرضى تحدٍ أخلاقي.. ومخاوف من انتهاكات الأمن السيبراني والهجمات الخبيثة

- ضرورة وضع إطار قانوني أخلاقي يحدد المسؤولية الطبية ويراعي الحدود الإنسانية

يشهد القطاع الصحي ثورة تقنية غير مسبوقة من إدخال التقنيات وتطبيقات الذكاء الاصطناعي في عمليات التشخيص والعلاج ومعالجة البيانات، ولكن هذا الجانب يثير الكثير من التساؤلات حول مستقبل الأطباء ودورهم الإنساني في علاج المرضى، وهل بالفعل سيؤثر الذكاء الاصطناعي على أداء الأطباء؟ وهل سيفقد الطبيب بريقه في التواصل المباشر مع المريض واتخاذ القرارات العلاجية؟ أم ما زالت التقنية بحاجة إلى المزيد من التقنين لما قد تحدثه من تأثيرات جوهرية على الممارسة الطبية وأخلاقياتها وكذلك على دراسة الجوانب القانونية المرتبطة بها كون المحور الأساسي في العملية العلاجية هو حياة المريض؟.

الذكاء الاصطناعي في الصحة لا يجب أن يُلغي دفء الإنسانية ورحابة الفهم البشري، هذا ما أرادت أن تؤكد عليه الدكتورة رقية بنت إسماعيل الظاهرية رئيسة قسم الأبحاث والدراسات القانونية وعضو فريق الذكاء الاصطناعي بالمستشفى السلطاني بقولها: كلما تقدمنا في العلم والتكنولوجيا، تنشأ تحديات جديدة تتجاوز حدود المعرفة التقليدية وتتعلق بكيفية التعامل مع القوى المتزايدة التي يمنحها لنا التطور، وهناك دائمًا تساؤلات عن حدودها وتأثيرها على الإنسانية والقيم التي نسعى للحفاظ عليها في عالم التكنولوجيا المتسارع، وأصبح الذكاء الاصطناعي جزءًا لا يتجزأ من منظومة الرعاية الصحية، ولكن هناك ضرورة ملحة لدراسة هذه التقنية قبل تبنيها لما قد تحدثه من تأثيرات جوهرية على الممارسة الطبية وأخلاقياتها وكذلك على دراسة الجوانب القانونية المرتبطة بها كون المحور الأساسي في العملية العلاجية هو حياة المريض.

وتابعت: يجب أن نعمل نحو تكنولوجيا أخلاقية لا تترك المرضى أسرى لأرقام ومعادلات، بل تستمع لنبض قلوبهم وتستجيب لاحتياجاتهم الحقيقية، لابد من التعرف على نقاط القوة والضعف في تبني تطبيقات الذكاء الاصطناعي في التشخيص الطبي.

وأكدت الظاهرية بأنهم كأطباء قد يجدون أنفسهم في مفترق طرق بين الأمل والمخاطرة وبين تبني التقنية والقيم الإنسانية لاسيما حينما يتعلق الأمر برعاية المريض فذكرت أنه كلما تقدمنا في العلم والتكنولوجيا، تنشأ تحديات وأسئلة جديدة لاستكشاف هذه الرحلة المعقدة بين الآلة والإنسان، الخطر الحقيقي في زخم هذه الثورة هو يمكن أن يفقد الطب بعضًا من بشريته ويحوّل المرضى إلى مجرد بيانات على أجهزة تقنية تحلل وتعالج دون وضع الاعتبار لإنسانيتهم.

وبدون أدنى شك ثورة الذكاء الاصطناعي أحدثت طفرة نوعية في تحسين الخدمات الصحية وتقديم رعاية شاملة وفعالة من حيث تحليل البيانات الضخمة بسرعة فائقة تفوق القدرات البشرية بالإضافة إلى أن نظم التعلم الآلي قادرة على تحديد الأمراض في مراحلها المبكرة، والتنبؤ بمساراتها، وحتى اقتراح خطط علاجية مخصصة بناءً على بيانات الفرد الصحية والجينيّة والقدرة على قراءة الصور الطبية مما يؤدي إلى اكتشاف مبكر للسرطانات وفرص واعدة بالشفاء، كل ذلك يوفر وقتًا ثمينًا يمكن استثماره في جوانب أخرى من العلاج والرعاية، بل إن بعض التنبؤات تشير إلى أن الذكاء الاصطناعي قد يسهم في تقليص تكاليف الرعاية الصحية بشكل كبير، مما يتيح توسيع نطاق الخدمات الطبية لتصل إلى شرائح أوسع من المجتمع.

الحس الإنساني

وأضافت: بالرغم من كل هذه الآفاق الواعدة وجب أن نتريث قليلًا؛ لنعود إلى محور العملية العلاجية وهو المريض حيث لا يمكننا التغافل عن الوجه الآخر لمخاطر هذه الثورة والتي قد تؤثر على العلاقة الإنسانية في الممارسة الطبية.

والجانب المظلم للذكاء الاصطناعي أن يتم الاعتماد الكلي على استخدامه في اتخاذ القرارات التشخيصية والعلاجية مما قد يؤدي إلى افتقار اللمسة الإنسانية ويقل التفاعل بين الأطباء ومرضاهم، كما أن الإفراط في تبني هذه التقنية يضعف من مهارات التواصل الإنساني لدى الكوادر الطبية كالاستماع والتفهم والشعور وهذا من جوهر مهنة الطب ولبّها، حيث إن العملية العلاجية هي رحلة إنسانية مشتركة بين الطبيب والمريض للفهم العميق لحاجات الإنسان النفسية والجسدية؛ فالدعم والتعاطف مع المريض في حالات ضعفه أسس مهمة في هندسة الشفاء، ومها كانت عبقرية خوارزميات الذكاء الاصطناعي ودقتها لن تستطيع أن تحل محل الحس الإنساني المرهف.

وأكدت الدكتورة أن خصوصية المرضى تعد من أهم التحديات الأخلاقية لتبني تقنية الذكاء الاصطناعي، فثمة مخاطر متزايدة في الأمن السيبراني وانتهاكات البيانات والهجمات الخبيثة على نماذج الذكاء الاصطناعي، فالتعامل مع البيانات الصحية يتطلب قدرًا عاليًا من السرية؛ لحمايتها من إساءة الاستخدام لذا وجب وضع ضوابط وقوانين صارمة للتصدي لخطر الاختراق وسوء الاستخدام، كما تثير هذه التقنية تساؤلا محوريا عن المسؤولية الطبية والمخاوف بشأن التحيزات الخوارزمية أو الأخطاء التي قد تؤدي إلى تآكل الثقة في الذكاء الاصطناعي والتأثير سلبًا على نزاهة الرعاية الصحية، كون خوارزميات هذه التقنية غير معصومة من الخطأ ويمكن أن يحدث أي خلل في الشبكات التي يعتمد عليها النظام، مما قد يؤدي إلى خطأ في التشخيص أو خطأ في خطة العلاج، ففي حال الخطأ من يتحمل المسؤولية؟ هل هو الطبيب المعالج أم المؤسسة الصحية التي تبنت التقنية أم مطور التقنية الذي صمم الخوارزميات؟ لذا وجب وضع إطار قانوني أخلاقي يحدد المسؤولية الطبية في تبني الذكاء الاصطناعي ووضع أسس واضحة حتى لا يتم تجاوز الحدود الإنسانية في عصر التقنية.

كما أن الانحيازات الخوارزمية في الذكاء الاصطناعي في مجال الصحة تعد من أهم التحديات، وتنشأ هذه التحيزات نتيجة البيانات المستخدمة في تدريب النماذج الذكية، مما يؤدي إلى نتائج غير دقيقة أو غير عادلة عند استخدامها في التشخيص أو العلاج، وهذا الانحياز يمكن أن يتسبب في تفاوتات صحية، حيث قد تتجاهل الخوارزميات التنوع العرقي والجنسي والبيئي، مما ينعكس سلبًا على دقة التشخيص وكفاءة العلاج، ويؤدي إلى تمييز غير مقصود في الرعاية الصحية. لذا، فإنه من الضروري تطوير خوارزميات أكثر شمولية وشفافية لضمان تقديم رعاية صحية عادلة ودقيقة لجميع المرضى.

وأكدت أن تقنيات الذكاء الاصطناعي تحمل في طياتها آفاقًا واعدة لتحسين جودة الرعاية الصحية وإمكانيات كبيرة لتسهيل عمل الممارسين الصحيين، ولكن وجب تبني هذه التقنية بحذر واعتبارها وسيلة لتعزيز قدرة الطبيب ولا تحل مكانه، وأن تكون القرارات الطبية والعلاجية بيد الطبيب بحيث تستخدم التقنيات كأدوات مساعدة فقط، ويجب أن توضع لوائح وقوانين صارمة تؤطّر القيم الإنسانية والأخلاقية والقانونية لضمان ممارسة طبية آمنة ومسؤولة في عصر تكنولوجيا الذكاء الاصطناعي، كما أن حوكمة الذكاء الاصطناعي تعد متطلبًا أساسيًا لتقليل المخاطر المحتملة وضمان مستقبل آمن ومستدام للرعاية الصحية، وأن الموازنة الدقيقة بين التكنولوجيا والإنسانية مطلب حيوي لضمان طب أخلاقي ومستدام لذلك دمج هذه التقنية يجب أن يتم في سياق تتناغم فيه التكنولوجيا مع الأخلاق لتقديم رعاية صحية مستدامة ومشرقة.

مخاطر أخلاقية

وفي السياق ذاته طرحنا تساؤلًا على الدكتور هشام بن عبدالله الذهب استشاري أول جهاز هضمي ومناظير تداخلية حول إمكانية الاستغناء عن الطرق التقليدية في تشخيص الأمراض؟ فأجاب قائلا:" كما هو الحال مع كل أداة وتطور في التكنولوجيا هناك جانب مظلم ومشرق في آن واحد ولا بد من التعامل بحذر مع التطور السريع وعدم الانجراف إلى كل ما هو جديد إلا بعد التثبت، ومعرفة كل ما يتعلق بالذكاء الاصطناعي في تشخيص الحالات المرضية قبل الاعتماد عليه بشكل كبير، مشيرًا إلى أن الاعتماد المفرط على الذكاء الاصطناعي قد يؤدي إلى تقليل دور الأطباء في عملية التشخيص، مما قد يؤثر على مستوى العناية الصحية المقدمة، وقد تكون خوارزميات الذكاء الاصطناعي غير دقيقة في بعض الحالات، مما يؤدي إلى تشخيص خاطئ، وهذا يمكن أن يؤدي إلى معالجات غير مناسبة ويعرّض حياة المرضى للخطر.

أما فيما يخص موضوع خطر غياب الشفافية فهو يتمثل في أن معظم نماذج الذكاء الاصطناعي تعمل كـ"صندوق أسود"، مما يعني أنه يصعب فهم كيف تتخذ القرارات، وقد يؤدي ذلك إلى تزعزع الثقة من قبل الأطباء والمرضى في نتائج التشخيص، وهناك مخاطر قانونية حيث إنه إذا حدث خطأ في تشخيص الذكاء الاصطناعي، فقد يكون من الصعب تحديد المسؤولية مما قد يثير قضايا قانونية معقدة.

وأضاف: هناك مخاطر أخلاقية في استخدام الذكاء الاصطناعي يمكن أن يؤدي إلى تمييز غير متعمد إذا كانت البيانات المستخدمة لتدريب الأنظمة تحتوي على تحيزات وهذا قد يؤثر على مجموعات سكانية معينة سلبًا.

وفي المقابل أوضح الدكتور هشام إيجابيات الذكاء الاصطناعي في تشخيص الأمراض قائلا: لتحقيق أقصى فائدة من الذكاء الاصطناعي في تشخيص الأمراض، يجب دمجه مع الطرق التقليدية كأداة مساعدة للأطباء، واستخدام نتائجه كجزء من تقييم شامل للحالة، وهذا التكامل يساعد على الحفاظ على العلاقة الإنسانية بين الطبيب والمريض، ويضمن أن يتم اتخاذ القرارات الطبية بشكل مدروس وآمن، ويستطيع الذكاء الاصطناعي أتمتة بعض المهام الروتينية، مما يسمح للأطباء بالتركيز على الحالات الأكثر تعقيدًا واحتياجًا للاهتمام البشري.

ويمكن أن يحلل الذكاء الاصطناعي كميات كبيرة من البيانات بسرعة ودقة، مما يمكنه من التعرف على أنماط قد تغفلها العين البشرية، ويمكنه معالجة وتحليل البيانات الكبيرة من السجلات الطبية، والفحوصات، والتاريخ الطبي للمرضى، مما يعزز فهم الحالة الصحية لكل مريض. و باستخدام تقنيات مثل تعلم الآلة، يمكن للذكاء الاصطناعي أن يساعد في الكشف المبكر عن الأمراض، مما يزيد من فرص العلاج الناجح، وله دور في تخصيص العلاج عبر تقديم توصيات علاجية مخصصة بناءً على بيانات كل مريض، مما قد يؤدي إلى تحسين النتائج الصحية.

أداة مساعدة

وعن قياس فعالية استخدام الذكاء الاصطناعي في الممارسات الطبية قالت إيمان بنت حمود الندابية مديرة دائرة التدريب والدراسات: الذكاء الاصطناعي (AI) أثبت قدرته على تحليل كميات هائلة من البيانات والتعلم من الأنماط في صور الأشعة وتحاليل المختبرات بسرعة ودقة. ومع ذلك، لا يزال الذكاء الاصطناعي أداة مساعدة وليس بديلًا عن الطبيب.

حيث إن العوامل الإنسانية، مثل التواصل العاطفي وفهم خلفيات المريض الشخصية، هي عناصر أساسية في التشخيص والعلاج. لذا سيكون مكملًا للطبيب وليس متفوقًا عليه بالكامل، ويمكن قياس فعالية الذكاء الاصطناعي في المجال الطبي من خلال مقاييس مختلفة مثل دقة التشخيص، والسرعة في اتخاذ القرار الطبي، وتقليل الأخطاء الطبية ومتابعة مدى تحسين نتائج المرضى وتقليل التكاليف الطبية تكون مؤشرات فعالة، ودراسات الجدوى السريرية التي تقارن بين طرق التشخيص التقليدية وتلك المدعومة بالذكاء الاصطناعي تعد مهمة في هذا السياق.

وتطرقت الندابية إلى الحديث عن تأثير الذكاء الاصطناعي على دور الطبيب في التواصل مع المريض موضحة بقولها: الذكاء الاصطناعي يمكنه مساعدة الأطباء في تسريع عملية التشخيص، مما يوفر لهم الوقت للتركيز على جوانب التواصل مع المريض وتقديم رعاية شخصية. مع ذلك، هناك قلق بأن الاعتماد الزائد عليه قد يقلل من التفاعل الإنساني، لذا يجب على الأطباء الحرص على الحفاظ على التوازن بين استخدام التقنية والاحتفاظ بدورهم الإنساني في رعاية المرضى.

وأضافت: الأطباء بحاجة إلى تطوير فهم عميق للتحديات الأخلاقية المرتبطة بالذكاء الاصطناعي، مثل حماية خصوصية البيانات، التحيز الخوارزمي، واتخاذ قرارات علاجية تعتمد على الذكاء ويتطلب ذلك الالتزام بمعايير أخلاقية صارمة، والمشاركة في تطوير إرشادات توجيهية تقنن استخدام الذكاء الاصطناعي بما يحمي حقوق المرضى ويضمن العدالة.

ومن الضروري وضع أنظمة وقوانين واضحة تضمن استخدام الذكاء الاصطناعي بشكل آمن وفعال في القطاع الصحي. وهذه القوانين يجب أن تحمي حقوق المرضى وتضمن الشفافية في كيفية اتخاذ القرارات الطبية كما يجب أن تحمي الأطباء من المسؤوليات الزائدة إذا حدثت أخطاء ناتجة عن أنظمة الذكاء الاصطناعي.

وحول التحديات التي تواجه الأطباء عند استخدام الذكاء الاصطناعي أفادت أن أبرز التحديات تشمل التحيز في البيانات التي يتعلم منها الذكاء الاصطناعي، وهو ما قد يؤدي إلى نتائج غير دقيقة أو غير عادلة، بالإضافة إلى ذلك، قد يواجه الأطباء صعوبة في تفسير القرارات التي تتخذها أنظمة الذكاء، ما يتطلب تدريبًا متخصصًا لفهم وتحليل مخرجات هذه الأنظمة بشكل صحيح.

وأكدت أن تكامل أنظمة الذكاء الاصطناعي مع نظم المعلومات الصحية التقليدية يعد أهم التحديات التي تحتاج إلى بنى أساسية متطورة تضمن نقل البيانات بسلاسة دون التأثير على سير العمل اليومي أو سرية بيانات المرضى، والتحديات الأخرى تتعلق بأمان المعلومات، حيث إن تزايد الاعتماد على الذكاء الاصطناعي يزيد من خطر الهجمات السيبرانية.

وسخّر القطاع الصحي بعض تطبيقات الذكاء الاصطناعي في تحليل الصور الطبية مثل الأشعة والرنين المغناطيسي، والتنبؤ بنتائج العلاجات، وتطوير الأدوية بشكل أسرع، وتحليل البيانات الصحية لتحديد الأنماط الوبائية، كما يساعد الذكاء في دعم القرار الطبي وتقديم توصيات علاجية مخصصة بناءً على تحليل بيانات المرضى.

تقنيات طبية

وشهد القطاع الصحي تطورًا هائلًا بفضل التقدم التكنولوجي والابتكارات المستمرة وهذا ما أشار إليه تقرير "رؤية عمان 2040": في مجال التقنيات الطبية تم إدخال الذكاء الاصطناعي في 5 مؤسسات صحية في مجال الكشف المبكر عن سرطان الثدي، وتقديم خدمات صحية عبر 5 عيادات افتراضية شملت الطب التطوري، وعيادة الأعصاب للكبار، وعيادة الأعصاب للأطفال، والغدد الصماء عند الأطفال وعيادة الصحة المهنية في المدينة الطبية الجامعية.

ومن الأمثلة الناجحة قامت المدينة الطبية الجامعية بإجراء أول عملية جراحة أطفال في زراعة الحالبين عن طريق المنظار من داخل المثانة، وتوفير علاج جديد باستخدام جهاز التحفيز المغناطيسي عبر الجمجمة، وإكمال التحضيرات اللازمة لتوسعة قسم الأشعة والتصوير الجزئي.

ويعكس مركز المحاكاة والابتكار الذي تم تأسيسه في المجلس العماني للاختصاصات الطبية الجهود المبذولة للاستفادة من التقنيات الحديثة في تطوير القطاع الصحي، ويعمل المركز على الجمع بين كل الفروع والتخصصات الطبية وتحسين مهارات الكادر الصحي من خلال تبني تقنيات وأساليب حديثة في التعليم الطبي ووسائل ابتكارية تعويضية والتدريب والبحث والتقييم والابتكار لتقليل العبء المادي والمعنوي، وتحسين رعاية وسلامة المرضى، وقد حصل المركز على جائزتين في فئتي "الابتكار" و"الطابعة ثلاثية الأبعاد" عن دوره في تدريب الكوادر الصحية باستخدام التقنيات الحديثة في مؤتمر مهارات المستقبل وتنمية الموارد البشرية، عن طريق الدار العربية للبحوث كما فاز بجائزة أفضل مبادرة في الابتكار وتوظيف التقنيات المتقدمة، ضمن فعاليات معرض كومكس العالمي للتكنولوجيا في مايو 2024.

المصدر: لجريدة عمان

كلمات دلالية: استخدام الذکاء الاصطناعی الذکاء الاصطناعی فی الرعایة الصحیة اتخاذ القرارات ما قد یؤدی إلى القطاع الصحی هذه التقنیة فی التشخیص مع المریض فی تشخیص یمکن أن حیث إن ا یمکن مما قد یجب أن

إقرأ أيضاً:

السباق الاستخباراتي على الذكاء الاصطناعي

في لحظة فارقة على الساحة التكنولوجية الدولية، جاء إطلاق شركة "ديب سيك" الصينية نموذجا لغويا ضخما يُعد من بين الأفضل في العالم، بالتزامن مع تنصيب دونالد ترامب رئيسا للولايات المتحدة، ليدق ناقوس الخطر في الأوساط الاستخباراتية الأميركية.

واعتبر ترامب ما جرى "جرس إنذار" في حين أقر مارك وارنر نائب رئيس لجنة الاستخبارات بمجلس الشيوخ بأن مجتمع الاستخبارات الأميركي "فوجئ" بسرعة التقدم الصيني، وفق مجلة إيكونوميست.

اقرأ أيضا list of 2 itemslist 1 of 2النيجريون لفرنسا: اعترفي بالجرائم الاستعمارية وعوضي عنهاlist 2 of 2أنقذونا نحن نموت.. المجاعة تجتاح غزةend of list

وفي العام الماضي، أبدت إدارة الرئيس الأميركي السابق جو بايدن قلقها من احتمال أن يتفوق الجواسيس والجنود الصينيون في سرعة تبنّي الذكاء الاصطناعي "إيه آي" (AI) فأطلقت خطة طوارئ لتعزيز اعتماد المجالين الاستخباراتي والعسكري على هذه التقنية.

وأوضحت المجلة في تقريرها أن الخطة تضمنت توجيه وزارة الدفاع الأميركية (البنتاغون) ووكالات الاستخبارات ووزارة الطاقة (المسؤولة عن إنتاج الأسلحة النووية) بتكثيف تجاربها على النماذج الأحدث من الذكاء الاصطناعي، وتوثيق التعاون مع مختبرات القطاع الخاص الرائدة مثل أنثروبيك وغوغل ديب مايند، وأوبن إيه آي.

سباق مفتوح

وفي خطوة ملموسة، منح البنتاغون، في 14 يوليو/تموز الجاري، عقودا تصل قيمتها إلى 200 مليون دولار لكل من تلك الشركات بالإضافة إلى "إكس إيه آي" المملوكة للملياردير إيلون ماسك، بهدف تطوير نماذج من الذكاء الاصطناعي الوكيل الذي يمكنه اتخاذ القرارات، والتعلم المستمر من التفاعلات، وتنفيذ مهام متعددة من خلال تقسيمها إلى خطوات وتحكّمها بأجهزة أخرى مثل الحواسيب أو المركبات.

لكن هذا السباق لا يقتصر -برأي إيكونوميست- على البنتاغون. إذ باتت نماذج الذكاء الاصطناعي تنتشر بسرعة داخل الوكالات الاستخباراتية، لتُستخدم في تحليل البيانات السرية والتفاعل مع المعلومات الحساسة.

الشركات طورت نسخا مُعدّلة من نماذجها تتيح التعامل مع وثائق مصنّفة سرّيا، وتتمتع بإتقان لغات ولهجات حساسة لاحتياجات الاستخبارات، مع تشغيلها على خوادم مفصولة عن الإنترنت العام

كما طوّرت الشركات نسخا مُعدّلة من نماذجها تتيح التعامل مع وثائق مصنّفة سرّيا، وتتمتع بإتقان لغات ولهجات حساسة لاحتياجات الاستخبارات، مع تشغيلها على خوادم مفصولة عن الإنترنت العام.

إعلان

ففي يناير/كانون الثاني الماضي، أعلنت شركة مايكروسوفت أن 26 من منتجاتها في الحوسبة السحابية حصلت على تصريح لاستخدامها في وكالات الاستخبارات.

وفي يونيو/حزيران، أعلنت أنثروبيك عن إطلاق نموذج "كلود غوف" (Claude Gov) وهو روبوت دردشة جديد مصمم خصيصا للجهات العسكرية والاستخباراتية بالولايات المتحدة، مشيرة إلى أنه يُستخدم بالفعل على نطاق واسع في جميع أجهزة الاستخبارات الأميركية، إلى جانب نماذج أخرى من مختبرات منافسة.

منافسون آخرون

ليست وحدها الولايات المتحدة التي تشهد مثل هذه التطورات، حيث تفيد المجلة أن بريطانيا تسعى إلى تسريع وتيرة اللحاق بالركب، ناقلة عن مصدر بريطاني رفيع -لم تُسمِّه- تأكيده أن جميع أعضاء مجتمع الاستخبارات في بلاده بات لديهم إمكانية الوصول إلى "نماذج لغوية ضخمة عالية السرية".

وعلى البر الرئيسي للقارة، تحالفت شركة ميسترال الفرنسية -الرائدة والوحيدة تقريبا في مجال الذكاء الاصطناعي على مستوى أوروبا- مع وكالة الذكاء الاصطناعي العسكري بالبلاد، لتطوير نموذج "سابا" (Saba) المدرّب على بيانات من الشرق الأوسط وجنوب آسيا، ويتميز بإتقانه العربية ولغات إقليمية أخرى مثل التاميلية.

أما في إسرائيل، فقد أفادت مجلة "+972" أن استخدام الجيش نموذج "جي بي تي-4" (GPT-4) الذي تنتجه شركة "أوبن إيه آي" قد تضاعف 20 مرة منذ اندلاع الحرب على قطاع غزة، في مؤشر إلى مدى تسارع تبنّي هذه النماذج في السياقات العسكرية الحية.

ورغم هذا النشاط المحموم، يقرّ خبراء داخل القطاع بأن تبنّي الذكاء الاصطناعي بأجهزة الأمن لا يزال متواضعا. وتقول كاترينا مولِّيغان المسؤولة عن شراكات الأمن في "أوبن إيه آي" إن اعتماد الذكاء الاصطناعي "لم يصل بعد إلى المستوى الذي نأمله".

وحتى مع وجود جيوب من التميز، كوكالة الأمن القومي الأميركية، إلا أن العديد من الوكالات ما تزال تتخلف عن الركب، إما بسبب تصميمها واجهات تشغيل خاصة بها، أو بسبب الحذر البيروقراطي في تبني التحديثات السريعة التي تشهدها النماذج العامة.

ويرى بعض الخبراء أن التحول الحقيقي لا يكمن في استخدام روبوتات دردشة فحسب، بل في "إعادة هندسة المهام الاستخباراتية نفسها" كما يقول تارون تشابرا المسؤول السابق بمجلس الأمن القومي الأميركي، والمدير الحالي للسياسات الأمنية في شركة أنثروبيك.

لعبة تجسس بالذكاء الاصطناعي

في المقابل، تُحذر جهات بحثية من المبالغة في الآمال المعقودة على هذه النماذج، حيث يرى الدكتور ريتشارد كارتر (من معهد آلان تورينغ البريطاني) أن المشكلة الأساسية تكمن في ما تُنتجه النماذج من "هلوسات" -أي إجابات غير دقيقة أو مضللة- وهو خطر كبير في بيئة تتطلب الموثوقية المطلقة.

وقد بلغت نسبة الهلوسة في أحدث نموذج للذكاء الاصطناعي "الوكيل" الذي تنتجه "أوبن إيه آي" حوالي 8%، وهي نسبة أعلى من النماذج السابقة.

وتُعد هذه المخاوف -بحسب إيكونوميست- جزءا من تحفظ مؤسسي مشروع، خاصة في أجهزة مثل وكالة الاستخبارات والأمن البريطانية المعروفة اختصارا بحروفها الإنجليزية الأولى "جي سي إتش كيو" (GCHQ) التي تضم مهندسين لديهم طبيعة متشككة تجاه التقنيات الجديدة غير المُختبرة جيدا.

إعلان

ويتصل هذا بجدل أوسع حول مستقبل الذكاء الاصطناعي. فالدكتور كارتر من بين أولئك الذين يرون أن بنية النماذج اللغوية العامة الحالية لا تُناسب نوع التفكير السببي الذي يمنحها فهما متينا للعالم. ومن وجهة نظره، فإن الأولوية بالنسبة لوكالات الاستخبارات يجب أن تكون دفع المختبرات نحو تطوير نماذج جديدة تعتمد على أنماط تفكير واستدلال مختلفة.

الصين في الصورة

ورغم تحفّظ المؤسسات الغربية، يتصاعد القلق من تفوق الصين المحتمل. يقول فيليب راينر من معهد الأمن والتكنولوجيا في وادي السيليكون "لا نزال نجهل مدى استخدام الصين نموذج ديب سيك (DeepSeek) في المجالين العسكري والاستخباراتي" مرجحاً أن "غياب القيود الأخلاقية الصارمة لدى الصين قد يسمح لها باستخلاص رؤى أقوى وبوتيرة أسرع".

موليغان: ما يُقلقني فعلا هو أن نكسب سباق الوصول إلى الذكاء الاصطناعي العام (AGI)، لكن نخسر سباق التبني الفعلي له

وإزاء هذا القلق، أمرت إدارة ترامب، في 23 يوليو/تموز الجاري، وزارة الدفاع ووكالات الاستخبارات بإجراء تقييمات دورية لمستوى تبنّي الذكاء الاصطناعي في المؤسسات الأمنية الأميركية مقارنة بمنافسين مثل الصين، وتطوير آلية للتكيّف المستمر.

ويجمع المراقبون تقريبا على نقطة جوهرية، وهي أن الخطر الأكبر لا يكمن في أن تندفع أميركا بلا بصيرة نحو تبني الذكاء الاصطناعي، بل في أن تظل مؤسساتها عالقة في نمطها البيروقراطي القديم.

وتقول كاترينا مولِّيغان "ما يُقلقني فعلا هو أن نكسب سباق الوصول إلى الذكاء الاصطناعي العام (إيه جي آي AGI) لكن نخسر سباق التبني الفعلي له".

مقالات مشابهة

  • السباق الاستخباراتي على الذكاء الاصطناعي
  • “سعود الطبية” تُنفذ أكثر من 105 آلاف جلسة تأهيل طبي خلال نصف عام 2025م
  • معضلة الذكاء الاصطناعي والمؤلف العلمي
  • استمراراً لسلسلة الدورات المتخصصة في الذكاء الاصطناعي… التنمية الإدارية تواصل تطوير الكوادر الحكومية في تحليل البيانات
  • خالد عبدالغفار: نلتزم باستخدام التكنولوجيا الحديثة لتأمين البيانات الصحية
  • وزير الصحة: ملتزمون باستخدام التكنولوجيا الحديثة لتأمين البيانات الصحية
  • الكشف عن الحالة الصحية لجيمري بايسال بعد استئصال ورم في الثدي
  • "صُنّاع الذكاء" يُنمي مهارات الأطفال التقنية في جدة
  • البشريون والبيطريون غاضبون.. أزمات وخلافات تشعل أجواء عمومية المهن الطبية قبل انعقادها
  • هل تنفجر معدلات النمو الاقتصادي في زمن الذكاء الاصطناعي؟