في قلب السباق العالمي المحموم نحو الذكاء الاصطناعي الفائق، الذي تتنافس فيه الأمم لتطوير أنظمة قادرة على إعادة تشكيل موازين القوى، تبرز نقطة ضعف خفية، لكنها بالغة الأهمية، قد تقلب هذه المنافسة رأسا على عقب.

فمراكزُ البيانات الأميركية، التي تمثل البنية التحتية الحيوية لتدريب وتشغيل نماذج الذكاء الاصطناعي المتقدمة، أصبحت هدفا رئيسيا لتهديدات سيبرانية متطورة، يُخشى أن يكون بعضها مدعوما من قوى دولية منافسة.

تقرير حديث صادر عن "غلادستون إيه آي" (Gladstone AI)، راجعته البيت الأبيض، يكشف عن ثغرات أمنية خطِرة في هذه المراكز قد تؤدي إلى تعطيل مشاريع الذكاء الاصطناعي وتقويض الأمن القومي الأميركي على حد سواء، خاصة مع إمكانية استغلال هذه الهجمات سرقة ملكية فكرية حساسة أو شن هجمات تخريبية مدمرة.

وفي هذا السياق، يتبادر إلى الذهن سؤال محوري: هل يمكن أن تكون مراكز البيانات، التي تعتبر حصونا للابتكار، هي نفسها نقطة الضعف القاتلة في معركة الذكاء الاصطناعي؟

التجسس الصيني يترصّد مراكز الذكاء الاصطناعي.. ماذا كشف تقرير "غلادستون إيه آي"؟

تستثمر شركات التكنولوجيا مئات المليارات من الدولارات في إنشاء مراكز بيانات جديدة داخل الولايات المتحدة، حيث يفترض في حال سارت الأمور وفقا للخطة، أن تستخدم هذه المراكز لتطوير نماذج ذكاء اصطناعي فائقة القوة.

إعلان

غير أن هذه المراكز، بحسب التقرير الذي نشره مركز "غلادستون إيه آي" (Gladstone AI) الثلاثاء 22 أبريل/نيسان، تواجه خطرا متزايدا يتمثل في التجسس الصيني. ويرى معدّو التقرير أن التهديد لا يقتصر على الخسائر المالية المحتملة لشركات التكنولوجيا، بل يمتدّ ليطال الأمن القومي الأميركي، في ظل السباق الجيوسياسي الشرس مع الصين للوصول إلى تفوق في تطوير الذكاء الاصطناعي المتقدم.

وبحسب مؤلفيْ التقرير، الشقيقين إدوار وجيرمي هارس من شركة "غلادستون إيه آي"، الاستشارية للحكومة الأميركية بشأن التداعيات الأمنية لِتقنيات الذكاء الاصطناعي، فقد جرى تداوله بنسخته غير المنقحة داخل البيت الأبيض في الأسابيع الأخيرة من إدارة ترامب. وقد حصلت مجلة "تايم" (Time) على نسخة منقحة منه قبل نشره للجمهور، بينما امتنع البيت الأبيض عن التعليق على محتواه.

ويحذر التقرير من أن مراكز بيانات الذكاء الاصطناعي الكبرى الحالية، وكذلك تلك التي قيد الإنشاء مثل مشروع "ستارغيت" (Stargate) التابع لـ "أوبن إيه آي" قد تواجه نوعين من التهديدات التي قد تنفذها جهات معادية على مستوى الدول، وفقا لما صرح به المؤلفون لمجلة "تايم"، وهما:

التخريب غير المتماثل: إذ يمكن لهجمات منخفضة التكلفة أن تحدث شللا في العمليات الحيوية لهذه المراكز عدة أشهر. هجمات التسريب: وتستهدف مباشرة سرقة أو مراقبة النماذج المحمية التي تمثل جوهر التقدم في هذا المجال.

وفي هذا السياق، يقول إدوار هاريس، أحد مؤلفي التقرير: "قد ينتهي بنا الأمر إلى عشرات من مواقع مراكز البيانات التي تعدّ فعليا أصولا عالقة، لا يمكن تحديثها لتلبية متطلبات الأمن المطلوبة"، ووصف ذلك بأنه "ضربة قاسية ومؤلمة".

تجدر الإشارة إلى أن الشقيقين هارس، وخلال عام كامل من البحث، زارا مع فريق يضم عناصر سابقين من القوات الخاصة الأميركية المتخصصين في الأمن السيبراني، أحد مراكز البيانات التابعة لإحدى كبرى شركات التكنولوجيا.

إعلان

حيث اطلعوا أثناء عملهم على حالة مؤكدة تعرّض فيها مركز بيانات تابع لشركة أميركية لهجوم نتج عنهُ سرقة ملكية فكرية، إضافة إلى محاولة استهداف منشأة أخرى عبر مكون حساس لم يُذكر اسمه، وهو هجوم كان من شأنه، لو نجح، أن يعطل المركز أشهرا.

علاوة على ذلك، يتناول التقرير دعوات أطلقتها جهات من وادي السيليكون ودوائر في واشنطن للشروع في "مشروع مانهاتن" (Manhattan Project) للذكاء الاصطناعي، بهدف تطوير ما يُعرف بـ "الذكاء الفائق"، وهي تقنيات ذكاء اصطناعي خارقة قد تمنح الولايات المتحدة تفوقا إستراتيجيا على الصين.

وعلى الرغم من النبرة التحذيرية للتقرير، فإنه لا يدعو صراحة إلى تنفيذ هذا المشروع، كما لا يعارضه. بل يشير إلى أن الشروع في مثل هذا الجهد الطموح دون معالجة نقاط الضعف الحالية قد يؤدي إلى فشله بدايةً.

ويختتم: "ليس هناك ما يضمن أننا سنبلغ الذكاء الفائق قريبا، لكن إذا حدث ذلك، وكنّا نريد حمايته من السرقة أو التخريب على يد الحزب الشيوعي الصيني، فعلينا أن نبدأ في بناء منشآت آمنة من الأمس، لا من الغد".

يمكن لهجمات منخفضة التكلفة أن تشل العمليات الحيوية لهذه المراكز عدة أشهر (الجزيرة) الهيمنة الصينية على مكونات مراكز البيانات.. تهديدات خفية تعيق التقدم الأميركي

يكشف التقرير عن نقطة ضعف أخرى تتمثل في الهيمنة الصينية على أجزاء رئيسية من مكونات مراكز البيانات الحديثة، حيث يتم تصنيع العديد من هذه المكونات حصريا أو شبه حصري داخل الصين. ومع التوسع الهائل في صناعة مراكز البيانات، فإن الطلب على هذه الأجزاء قد تفاقم عدة سنوات، مما يعقد عملية الحصول عليها.

وهذا يعني أن أي هجوم على مكون حيوي معين قد يتسبب في تعطيل مركز البيانات مدة طويلة، قد تصل إلى عدة أشهر أو أكثر.

ويزعم التقرير أن بعض هذه الهجمات قد تكون غير متكافئة بشكل كبير. على سبيل المثال، يمكن تنفيذ إحدى هذه الهجمات المحتملة مقابل 20 ألف دولار فقط، وإذا نجحت، يمكن أن تعطل مركز بيانات بقيمة 2 مليار دولار فترة تتراوح بين ستة أشهر إلى سنة كاملة.

إعلان

كما يشير التقرير أيضا، إلى أن الصين قد تؤخر شحن المكونات الضرورية لإصلاح مراكز البيانات المتضررة نتيجة لهذه الهجمات، خصوصا إذا اعتبرت أن الولايات المتحدة على وشك تطوير الذكاء الفائق. ويؤكد المصدر نفسه أنه "من المحتمل أن تبدأ المهل الزمنية للمكونات الحيوية، مثل المولدات والمحولات في ازدياد غامض، مقارنة بما هي عليه الآن".

ويضيف التقرير أنه في حال حدوث ذلك، سيكون مؤشرا على أن الصين تُحول في هدوء هذه المكونات إلى منشآتها الخاصة، نظرا لسيطرتها على القاعدة الصناعية التي تصنع معظمها.

كيف تفتح الثغرات الأمنية في مختبرات الذكاء الاصطناعي الطريق لهجمات الدول الكبرى؟

يفيد التقرير، أن مراكز البيانات الحالية، ومختبرات الذكاء الاصطناعي نفسها، لا تتمتع بالأمان الكافي لمنع سرقة أوزان الذكاء الاصطناعي، التي تعدّ أساس الشبكات العصبية الكامنة وراء هذه النماذج. ووفقا للمصدر نفسه، فإن هذه الثغرات قد تتيح للمهاجمين على مستوى الدولة تنفيذ هجمات فعالة.

في هذا السياق، يستشهد المؤلفون بمحادثة مع باحث سابق في "أوبن إيه آي"، الذي وصف ثغرتين قد تسمحان بحدوث هجمات مشابهة. واحدة من هذه الثغرات أُبلِغ عنها على قنوات "سلاك" (Slack) الداخلية للشركة، لكنها ظلت بلا معالجة عدة أشهر.

ورغم أن التفاصيل الدقيقة للهجمات لم تدرج في النسخة التي اطلعت عليها مجلة "تايم" من التقرير، إلا أن تلك الحوادث تسلط الضوء على ثغرات كبيرة في أنظمة الأمان.

في المقابل، صرح متحدث باسم "أوبن إيه آي" في بيان: "ليس من الواضح تماما ما تشير إليه هذه الادعاءات، لكن يبدو أنها قديمة ولا تعكس الوضع الحالي لمُمارساتنا الأمنية. لدينا برنامج أمني صارم تشرف عليه لجنة السلامة والأمن التابعة لمجلس إدارتِنا".

ورغم هذه الردود، يقر مؤلفو التقرير أن الأمور تتحسن ببطء. حيث يقول التقرير: "وفقا لعدد من الباحثين الذين تحدثنا إليهم، فقد شهد الأمن في مختبرات الذكاء الاصطناعي الرائدة تحسنا طفيفا في العام الماضي، لكنه لا يزال بعيدا عن توفير الحماية الكافية من هجمات الدول".

إعلان

كما أضاف المصدر ذاته، أن الضوابط الأمنية الضعيفة في العديد من هذه المختبرات ناتجة في جزء منها عن تحيز ثقافي نحو السرعة على حساب تعزيز الأمن.

وبحسب تقرير مجلة "تايم"، يتفق الخبراء المستقلون على أن العديد من هذه المشكلات لا تزال قائمة، إذ يقول غريغ ألين، مدير مركز "وادهني" للذكاء الاصطناعي (Wadhwani AI center) في مركز الدراسات الإستراتيجية والدولية في واشنطن: "لقد شهدنا حوادث علنية لعصابات إلكترونية تخترق طريقها إلى أصول ملكية فكرية لشركة إنفيديا أخيرا".

ويضيف: "أجهزة الاستخبارات الصينية أكثر قدرة وتطورا من هذه العصابات. ومن ثم، هناك فجوة كبيرة بين الهجوم والدفاع عندما يتعلق الأمر بالمهاجمين الصينيين والمدافعين عن شركات الذكاء الاصطناعي الأميركية".

وكمثال واضح على هذه الفجوة، يكفي استرجاع قضية مجموعة "لابسوس" ($Lapsus) إذ اخترقت عدة شركات تكنولوجية كبرى مثل "أوبر" (Uber) و"إنفيديا" و"روكستار غيمز" (Rockstar Games)، وتضم في أعضائها مراهقين من المملكة المتحدة والبرازيل، واستطاعت الوصول إلى بيانات حساسة لشركات عملاقة، مما يعكس خطورة الهجمات التي قد تكون أكثر تنظيما بفعل دول مثل الصين.

أي هجوم على مكون حيوي معين قد يتسبب في تعطيل مركز البيانات مدة طويلة، قد تصل إلى عدة أشهر أو أكثر (الجزيرة) ذكاء اصطناعي فائق يختبر حدود الحرية.. هل يصبح خصما لمطوريه؟

يشير التقرير إلى نقطة ضعف حاسمة ثالثة تتمثل في قابلية مراكز البيانات ومطوري الذكاء الاصطناعي للتأثر بنماذج الذكاء الاصطناعي القوية نفسها. فقد أظهرت دراسات حديثة، أجراها باحثون بارزون في هذا المجال، أن النماذج المتقدمة بدأت تبدي دوافع ومهارات تقنية تؤهلها للإفلات من القيود التي فرضها عليها مطوّروها.

ومن أبرز الأمثلة التي وردت في التقرير، حالة نموذج تابع لـ "أوبن إيه آي" كُلف أثناء الاختبار بمهمة استرجاع سلسلة نصية من برنامج معيّن، إلا أن البرنامج لم يعمل لخلل في الاختبار. عندها، بادر النموذج من تلقاء نفسه، ودون أي توجيه بشري، إلى مسح الشبكة لفهم سبب الخلل.

إعلان

وأثناء هذا المسح، اكتشف ثغرة أمنية في الجهاز الذي يعمل عليه، فاستغلها مرة أخرى من دون أي توجيه للخروج من بيئة الاختبار واستعادة السلسلة التي طلب منه في البداية العثور عليها.

وجاء في التقرير: "مع بناء تطوير مطوري الذكاء الاصطناعي لنماذج ذكاء اصطناعي أكثر قدرة على طريق الوصول إلى الذكاء الفائق، أصبحت تلك النماذج أصعب في التصحيح والتحكم. يحدث هذا لأن أنظمة الذكاء الاصطناعي عالية القدرة والواعية بالسياق يمكنها ابتكار إستراتيجيات إبداعية خطِرة لتحقيق أهدافها الداخلية لم يتوقعها مطوروها أو يقصدوها أبدا".

وبناء عليه، يوصي التقرير بضرورة أن تتضمن جهود تطوير الذكاء الاصطناعي آليات فعالة لاحتواء الذكاء الاصطناعي، مع تمكين القادة المسؤولين من إيقاف تطوير الأنظمة الأقوى في حال تبين أن مستوى الخطر مرتفع للغاية.

ومع ذلك، يحذر المؤلفون من أنه في حال تمكنوا فعلا من تدريب ذكاء فائق حقيقي له أهداف مختلفة عن أهدافهم، فمن المحتمل ألا يكون قابلا للاحتواء على المدى الطويل، مثلما ورد في التقرير.

في اختبار القوة والأخلاق

على الرغم من أن المقارنة بـ"مشروع مانهاتن" تبدو محملة برمزية درامية، إلا أنها تفضح قلقا أميركيا عميقا، ليس من خسارة التفوق التقني فحسب، بل من تحول الذكاء الاصطناعي إلى سلاح إستراتيجي بيد منافس لا يمكن التنبؤ بسلوكه.

لكن القلق الأكبر لا يكمن في تسرب التقنية فحسب، بل في ما قد تفعله أميركا بها حين تحتكرها. هل تبقى المبادئ الأخلاقية كالنشر المفتوح والحوكمة العالمية، جزءا من معادلة الذكاء الاصطناعي؟ أم إن التقنية، مثلما رأينا في الطاقة النووية، ستخضعُ لحسابات الهيمنة والاصطفاف السياسي؟

هذا التوتر يتفاقم حين تنكشف الازدواجية الأخلاقية للولايات المتحدة، التي تدعو إلى "الذكاء الاصطناعي المسؤول" في المؤتمرات الدولية، بينما تدعم آلة إبادة لا هوادة فيها تشنّ على قطاع غزة، وتقف سياسيّا وتقنيا إلى جانب جيش احتلال أباد حتى اليوم، أكثر من خمسين ألف إنسان على مرأى من العالم.

إعلان

يبدو أن واشنطن في مفترق طرق حقيقي: هل ستقود مستقبل الذكاء الاصطناعي باعتبارها قوة علمية وقيمية؟ أما أنها، كما تفعل اليوم، ستواصل استخدام التكنولوجيا لتعزيز مصالحها الخاصة والإخلال بميزان العدالة والكرامة في العالم؟

المصدر: الجزيرة

كلمات دلالية: حريات الذکاء الاصطناعی مراکز البیانات الذکاء الفائق ذکاء اصطناعی هذه المراکز هذه الهجمات أوبن إیه آی التقریر أن فی التقریر عدة أشهر فی حال فی هذا من هذه

إقرأ أيضاً:

الوزراء: من التشخيص للعلاج.. الذكاء الاصطناعي يغير قواعد الطب

أصدر مركز المعلومات ودعم اتخاذ القرار بمجلس الوزراء، تحليلاً جديداً قدم من خلاله عرضاً لمزايا وتحديات توظيف الذكاء الاصطناعي في القطاعات الصحية، مع إلقاء نظرة على بعض التجارب الدولية في هذا المجال، حيث أشار إلى أن أنظمة الرعاية الصحية شهدت على مدار السنوات الماضية تحولًا كبيرًا بفضل إدماج تقنيات الذكاء الاصطناعي، التي باتت تؤدي دورًا محوريًّا في التشخيص، ورعاية المرضى، والإدارة، وتعزيز الصحة العامة؛ وأصبحت توفر إمكانات كبيرة، بدءاً من أدوات التعلم الآلي القادرة على قراءة الصور الطبية بدقة، إلى منصات المراقبة الصحية عن بُعد، بما يُسهم في تحسين الكفاءة في المجال الطبي، مضيفاً أنه في ظل التحديات المتزايدة، مثل نقص الكوادر، وتزايد الأمراض المزمنة، تتجه دول عديدة اليوم لتبني حلول ذكية ترتكز على البيانات والتعلم الآلي؛ ما يجعلها في طليعة ثورة صحية رقمية تُعيد تشكيل مستقبل الرعاية الصحية عالميًّا.

وأكد المركز تحقيق تقنيات الذكاء الاصطناعي تأثيرًا ملحوظًا في مجال الرعاية الصحية وخاصة فيما يتعلق بتحسين دقة التشخيص والكشف المبكر عن الأمراض؛ فالتعلم الآلي (Machine learning)، وهو عنصر أساسي في الذكاء الاصطناعي المستخدم في الرعاية الصحية، أحدث نقلة نوعية في هذا المجال من خلال تحسين التشخيص والعلاج؛ فعن طريق معالجة كميات هائلة من البيانات السريرية، يمكن للخوارزميات تحديد الأنماط والتنبؤ بالنتائج الطبية بدقة كبيرة.

كما تساعد تقنية "التعلم الآلي" في تحليل سجلات المرضى، والتصوير الطبي، واكتشاف علاجات جديدة؛ ما يساعد المتخصصين في الرعاية الصحية على تحسين العلاج وخفض التكاليف. وكذلك يُتيح التعلم الآلي التشخيص الدقيق للأمراض، وتقديم علاجات مخصصة، واكتشاف التغيرات الطفيفة في العلامات الحيوية، والتي قد تشير إلى مشكلات صحية محتملة.  ولعل أبرز الأمثلة على تقنيات التعلم الآلي برنامج (EchoNext) الذي يتم توظيفه في اكتشاف أمراض القلب الهيكلية بنسبة دقة تبلغ 77%، وقد أسهم بالفعل في اكتشاف آلاف الحالات عالية الخطورة.

بالإضافة إلى ذلك، هناك أداة "معالجة اللغة الطبيعية" (NLP) وهي أحد أشكال الذكاء الاصطناعي التي تُتيح لأجهزة الكمبيوتر فهم اللغة البشرية واستخدامها، ويُستخدم هذا النوع من الذكاء الاصطناعي في قطاع الرعاية الصحية بشكل متزايد، وهو ما يُسهم في تحسين جودة الرعاية الصحية من خلال تشخيص أدق، وتبسيط الإجراءات السريرية.

على الجانب الآخر، يُحدث الذكاء الاصطناعي تحولًا كبيرًا في الجوانب الإدارية للرعاية الطبية؛ فمن خلال أتمتة المهام الروتينية، مثل: إدخال البيانات، ومعالجة المطالبات، وتنسيق المواعيد، تُتيح تقنيات الذكاء الاصطناعي لمقدمي الرعاية والمؤسسات الصحية توفير الوقت للتركيز على رعاية المرضى.

علاوة على ذلك، يمتلك الذكاء الاصطناعي القدرة على تقليل الأخطاء البشرية من خلال تسريع مراجعة السجلات الطبية، والصور الشعاعية، ونتائج الاختبارات. ومع منحه للمهنيين الطبيين مزيدًا من التحكم في سير عملهم، يمكنهم تقديم رعاية ذات جودة عليا مع الحفاظ على الكفاءة في التكاليف.

أشار التحليل إلى أن تقنيات الذكاء الاصطناعي توفر فرصًا كبيرة لمعالجة أزمات أنظمة الرعاية الصحية، وخاصة المتعلقة بارتفاع النفقات وأزمة القوى العاملة؛ فالتقديرات تشير إلى أن نفقات الرعاية الصحية قد ارتفعت بوتيرة سريعة خلال السنوات العشرين الماضية، ويُقدّر أن ما لا يقل عن 20% من هذه النفقات يتم هدرها.

في الوقت نفسه، يواجه قطاع الرعاية الصحية أزمة حادة في القوى العاملة؛ إذ تُقدِّر "منظمة الصحة العالمية" (WHO) وجود عجز بنحو 10 ملايين عامل صحي بحلول عام 2030، خاصة في البلدان ذات الدخل المنخفض والمتوسط. كما أن العاملين في قطاع الصحة يعانون من الإرهاق الشديد؛ حيث تشير التقديرات إلى أن نحو 50% من المهنيين الصحيين يعانون من الاحتراق الوظيفي.

وفي هذا السياق، يأتي دور الذكاء الاصطناعي ليحدث تغييرات جوهرية في تنظيم الرعاية الطبية، من خلال نقل المهام الحيوية وتعزيز أداء العاملين في القطاع الصحي، وهو ما يؤدي إلى تحسين نتائج المرضى ورفع كفاءة التشغيل.

أوضح التقرير أنه رغم المكاسب التي يوفرها الذكاء الاصطناعي في قطاع الرعاية الصحية، لا يخلو الأمر من تحديات عديدة تتطلب التعامل معها، خاصة مع تزايد استثمارات المؤسسات الصحية في استخدام هذه التقنيات، ويأتي في مقدمة هذه التحديات:

-خصوصية البيانات: حيث تُعَد حماية البيانات الشخصية من أبرز المخاوف المتعلقة باستخدام الذكاء الاصطناعي في الرعاية الصحية؛ فأنظمة الذكاء الاصطناعي تعتمد على كميات هائلة من بيانات المرضى لتعمل بكفاءة، لكن أي سوء في التعامل مع هذه البيانات قد يؤدي إلى خروقات في الخصوصية. وتزداد الخطورة عندما تكون تلك البيانات مدرجة على منصات سحابية أو مجموعات بيانات غير محمية بشكل كافٍ.

-غياب أطر تنظيمية واضحة: رغم أن بعض المناطق، مثل الاتحاد الأوروبي، تبنَّت تشريعات شاملة مثل قانون الذكاء الاصطناعي (EU AI Act) لعام 2024، فإن العديد من الدول -خاصة في الجنوب العالمي- لا تمتلك تنظيمًا واضحًا لاستخدام الذكاء الاصطناعي في مجال الرعاية الصحية. هذا التباين يعقِّد عملية نشر أدوات الذكاء الاصطناعي عالميًّا، خاصة بالنسبة للشركات متعددة الجنسيات.

-صعوبة مواكبة التطورات: هناك صعوبة في مواكبة قطاع الصحة للابتكارات السريعة في مجال الذكاء الاصطناعي؛ فالذكاء الاصطناعي يُعَد قطاعًا ناشئًا، ومعظم الشركات العاملة فيه لا يتجاوز عمرها عشر سنوات، بينما قطاع الرعاية الصحية يُعَد صناعة ناضجة تهيمن عليها مؤسسات راسخة. هذا التفاوت بين طبيعة القطاعين قد يُبطئ وتيرة الابتكار، من خلال الإجراءات والهياكل المتجذّرة التي قد تعوق تبني التقنيات الجديدة.

-صعوبات التكامل مع أنظمة المعلومات الصحية: يتطلب تطبيق الذكاء الاصطناعي في المستشفيات دمجًا فعّالًا مع السجلات الصحية الإلكترونية وقواعد بيانات التصوير الطبي وسير العمل السريري، ومع هذا، فالعديد من المؤسسات الصحية تفتقر إلى البنية التحتية التكنولوجية والمعايير اللازمة لضمان هذا التكامل؛ ما يؤدي إلى تنفيذ مجزَّأ وأعباء إدارية إضافية.

-التحيّز الخوارزمي والعدالة الصحية: تعتمد أنظمة الذكاء الاصطناعي على البيانات التي تُدرَّب عليها، وإذا كانت هذه البيانات تفتقر إلى تمثيل سكاني متنوع، فقد يؤدي ذلك إلى أداء ضعيف في تشخيص أو علاج فئات معينة من السكان. وقد كشفت عدة دراسات أن العديد من النماذج التجارية المستخدمة في الرعاية الصحية أظهرت تحيزًا عنصريًّا واجتماعيًّا؛ مما يُعمِّق الفجوات في جودة الرعاية الصحية.

-مقاومة القوى العاملة: رغم تزايُد الحماس تجاه الذكاء الاصطناعي، فإن كثيرًا من العاملين في المجال الصحي يبقون مترددين أو مقاومين له، بسبب مخاوف من فقدان الوظائف أو المسؤولية القانونية أو نقص التدريب.

وفي هذا السياق، يُعد كسب ثقة الأطباء وقبولهم أمر بالغ الأهمية لنجاح تطبيق الذكاء الاصطناعي في المجال الصحي. ولحدوث ذلك؛ يجب أن تتاح للأطباء إمكانية الاطلاع على كيفية اتخاذ النظام للقرارات، والتأكد من اعتماده على معلومات طبية دقيقة وحديثة. كذلك، يجب أن يكون استخدام هذه الأنظمة ملتزمًا بالقوانين والضوابط لضمان الاستخدام الأخلاقي وعدم تعريض المرضى للخطر.

وأوضح المركز أنه في ظل المزايا العديدة التي يوفرها الذكاء الاصطناعي في مجال الرعاية الصحية، بدأ عدد من الدول في توظيفه بشكل متزايد لدعم جهودها في مواجهة تفشي الأمراض، ومن بين أبرز هذه الدول: الدانمارك والصين وبريطانيا ورواندا ومالاوي.

وفي هذا الصدد؛ تُعَد الدانمارك تجربة رائدة في التحول الرقمي والاعتماد على الذكاء الاصطناعي والروبوتات في الرعاية الصحية؛ حيث تستثمر في تطوير "مستشفيات المستقبل" التي تعتمد على الأتمتة والخدمات الرقمية.

كما أنشأت الدانمارك عددًا من المنصات الابتكارية المرتبطة مباشرة بالمستشفيات، مثل مستشفى جامعة "جنوب الدانمارك"، بهدف تجربة الحلول التقنية في بيئة سريرية حية. وتشمل هذه المراكز: "مركز الروبوتات السريرية" الذي يدمج التقنية مع المهام اللوجستية والعلاجية، و"مركز الذكاء الاصطناعي الإكلينيكي" المعني بتطوير أدوات تحليلية تدعم التشخيص، و"مركز التكنولوجيا الطبية المبتكرة" الذي يركِّز على الطب عن بُعد والتطبيقات الذكية.

أوضح التحليل أن هذه المنصات تُتيح التعاون المباشر بين المهندسين والأطباء؛ مما يُعجِّل باختبار الحلول وتكييفها مع احتياجات الواقع السريري، كما توفر للشركات -لا سيما الشركات الصغيرة والمتوسطة- نموذجًا متكاملًا جاهزًا للتوصيل والتشغيل يتيح اختبار المفاهيم وتطوير النماذج الأولية بالتعاون مع الفرق الطبية؛ حيث يتم التركيز على الحلول التي تعالج تحديات حقيقية داخل المستشفيات، مثل: تقليل المهام المتكررة، وإتاحة وقت أكبر للرعاية المباشرة.

وفي "المختبر الوطني للروبوتات" بجامعة هيريوت‑وات في بريطانيا، تم تطوير "روبوت ARI" لدعم المرضى بعد الجراحة أو الإصابات؛ حيث يُوجِّه المرضى خلال تمارين إعادة التأهيل؛ مما يخفف الضغط على أخصائي العلاج الطبيعي.

وفي الصين، اعتمدت المستشفيات الكبرى منذ يناير 2025 نموذج (DeepSeek)، الذي يدمج الذكاء الاصطناعي في مجالات علم الأمراض وتحليل الصور الطبية ودعم القرار الإكلينيكي. وقد بدأت الصين في تطبيقه بالمؤسسات الطبية الكبرى في شنغهاي، ثم توسعت على الصعيد الوطني، وقد أدى ذلك إلى تحسين دقة التشخيص، وتسريع سير العمل، وتخفيف الضغط على الأطباء.

وكذلك، وظَّفت رواندا الذكاء الاصطناعي في الكشف المبكر عن مرض "جدري القرود" (Mpox)، وهو مرض نادر وقاتل تفشّى بين عامي 2022 و2023؛ ما ساعد في التصدي السريع للمرض وحماية الفئات المعرضة للخطر.

أيضًا، في مدينة "ليلونغوي" في مالاوي، تم توظيف نظام مراقبة الأجنة المدعوم بالذكاء الاصطناعي، الذي طُوِّر بالشراكة بين شركة البرمجيات الأمريكية (PeriGen) ووزارة الصحة في مالاوي ومستشفى "تكساس للأطفال" الأمريكية، وقد أسهم بالفعل في خفض وفيات حديثي الولادة بنسبة 82% خلال ثلاث سنوات؛ حيث يقوم بتحليل نبض الجنين بشكل مستمر، وينبِّه الطاقم الطبي فورًا للتدخل، وهو ما يُعَد تحسنًا كبيرًا مقارنة بالفحوصات اليدوية المتقطعة.

وأشار التحليل إلى أنه في ظل الاعتماد المتزايد على تطبيقات الذكاء الاصطناعي في المجال الطبي، أوصى العديد من المنظمات الدولية بتضمين هذه التطبيقات ضمن منصات الصحة الوطنية؛ حيث يمكن للدول ذات البنية التحتية الرقمية الأساسية تبني أدوات بسيطة، مثل: روبوتات المحادثة التنبيهية، وتذكيرات الرسائل النصية المدعومة بالذكاء الاصطناعي، بينما الدول ذات النظم القوية يمكنها اعتماد تطبيقات أكثر تقدمًا كالتنبؤ الفوري بالأوبئة، وتحسين إدارة الموارد.

وأوضح المركز أنه على الرغم من الإمكانات الهائلة للذكاء الاصطناعي في تحسين التشخيص وتسريع العلاج وتخفيف الأعباء الإدارية، فإن التحديات المصاحبة له لا تقل أهمية؛ فحماية الخصوصية، وضمان الإنصاف، وبناء الثقة، وتحقيق التنظيم الفعّال، كلها قضايا لا بُدَّ من معالجتها بجدية، ويتطلب تجاوز هذه التحديات تنسيقًا وثيقًا بين الحكومات، والمطورين، والمؤسسات الصحية، ومنظمات المجتمع المدني، من أجل تطوير أنظمة ذكاء اصطناعي موثوقة وأخلاقية وشاملة.

طباعة شارك مركز المعلومات ودعم اتخاذ القرار توظيف الذكاء الاصطناعي الرعاية الصحية تقنيات الذكاء الاصطناعي التشخيص والعلاج القطاع الصحي

مقالات مشابهة

  • الدرعي: الذكاء الاصطناعي في الفتوى فرصة وتحدٍ
  • المفتي: ثورة الذكاء الاصطناعي من أكبر التحديات التي عرفها العصر الحدي
  • الوزراء: من التشخيص للعلاج.. الذكاء الاصطناعي يغير قواعد الطب
  • يصاب بالتسمم باستشارة من «الذكاء الاصطناعي»
  • أبوظبي تكتب قصة نجاح في الذكاء الاصطناعي
  • نائب محافظ سوهاج يُطلق مبادرة «سوهاج Ai» لتأهيل الشباب في مجالات الذكاء الاصطناعي والأمن السيبراني
  • عبيدات يكتب ( توظيف الذكاء الاصطناعي في قطاع النقل العام )
  • أبرز اتجاهات الذكاء الاصطناعي التوليدي في 2025
  • إطلاق CharGPT5 في خطوة نحو الذكاء الاصطناعي الفائق
  • الجدل الاقتصادي في شأن الذكاء الاصطناعي (3- 5)