منظمة الصحة العالمية تحذر من مخاطر محتملة للذكاء الاصطناعي
تاريخ النشر: 19th, January 2024 GMT
قد يُحدث الذكاء الاصطناعي التوليدي ثورة في الرعاية الصحية، على سبيل المثال من خلال تسهيل تطوير الأدوية أو التعجيل بالكشف عن الأمراض، لكنّ منظمة الصحة العالمية شددت في تقرير لها على ضرورة إيلاء اهتمام أكبر بالمخاطر المحتملة لهذا التطور.
في وثيقة نُشرت الخميس، حللت منظمة الصحة العالمية مخاطر وفوائد استخدام نماذج كبيرة متعددة الوسائط تسمى "Large Multi-modal Models" أو اختصارا "LMM"، وهي نوع من تكنولوجيا الذكاء الاصطناعي التوليدي يشهد نموا سريعا، في مجال الصحة.
ويمكن للنماذج الكبيرة متعددة الوسائط هذه استخدام أنواع متنوعة من البيانات، بما في ذلك النصوص والصور والفيديو، وإنشاء نتائج لا تقتصر على نوع البيانات التي يتم إدخالها في الخوارزمية.
وقالت منظمة الصحة العالمية إن "من المتوقع أن يتم استخدام وتطبيق النماذج الكبيرة متعددة الوسائط على نطاق واسع في مجال الرعاية الصحية والبحث العلمي والصحة العامة وتطوير الأدوية".
وحددت المنظمة 5 مجالات يمكن أن تُستخدم فيها هذه التكنولوجيا: الفحص (على سبيل المثال، للرد على الطلبات المكتوبة من المرضى)، والبحث العلمي وتطوير الأدوية، والتعليم الطبي والتمريضي، والمهام الإدارية، والاستخدام من جانب المرضى، على سبيل المثال لمراجعة الأعراض.
ورغم أن هذه التكنولوجيا تتمتع بإمكانات كبيرة، فإن منظمة الصحة العالمية لفتت إلى أنه ثبت أيضا أن هذه النماذج الكبيرة متعددة الوسائط يمكن أن تؤدي إلى نتائج خاطئة، أو غير دقيقة، أو متحيزة، أو غير كاملة، وهو ما قد يفضي بوضوح إلى عواقب سلبية.
وأشارت منظمة الصحة العالمية إلى أنه "نظرا لتزايد استخدام النماذج الكبيرة متعددة الوسائط في الرعاية الصحية والطب، فإن الأخطاء وسوء الاستخدام، وفي نهاية المطاف الإضرار بالأفراد؛ أمر لا مفر منه".
عمالقة التكنولوجياوتقدّم الوثيقة أيضا إرشادات جديدة بشأن أخلاقيات وحوكمة النماذج الكبيرة متعددة الوسائط، إذ أعطت منظمة الصحة العالمية أكثر من 40 توصية للحكومات وشركات التكنولوجيا ومقدمي الرعاية الصحية حول كيفية الاستفادة من هذه التكنولوجيا بأمان تام.
وأكد كبير العلماء في منظمة الصحة العالمية جيريمي فارار أن "تقنيات الذكاء الاصطناعي التوليدي لديها القدرة على تحسين الرعاية الصحية، ولكن فقط إذا عمد أولئك الذين يطورون وينظمون ويستخدمون هذه التقنيات إلى تحديد المخاطر المرتبطة بها وأخذها في الاعتبار بشكل كامل".
وأضاف "نحن بحاجة إلى معلومات وسياسات شفافة لإدارة تصميم وتطوير واستخدام النماذج الكبيرة متعددة الوسائط لتحقيق نتائج صحية أفضل والتغلب على التفاوتات الصحية المستمرة".
ودعت منظمة الصحة العالمية إلى وضع قواعد المسؤولية "لضمان تعويض المستخدمين المتضررين من النماذج الكبيرة متعددة الوسائط بشكل مناسب أو حصولهم على ملاذات أخرى" يمكنهم اللجوء إليها.
وأشارت المنظمة أيضا إلى أن درجة امتثال النماذج الكبيرة متعددة الوسائط للقواعد الحالية، لا سيما في ما يتعلق بحماية البيانات، تثير بدورها مخاوف.
إلى ذلك، فإن حقيقة أن النماذج الكبيرة متعددة الوسائط تُطوَّر وتُنشر في كثير من الأحيان من جانب عمالقة التكنولوجيا، تثير مخاوف وقد ترسّخ هيمنة هذه الشركات، بحسب منظمة الصحة العالمية.
ولذلك توصي المنظمة بتطوير النماذج الكبيرة متعددة الوسائط، ليس فقط من العلماء والمهندسين، ولكن أيضا من المتخصصين في الرعاية الصحية والمرضى.
وحذرت منظمة الصحة العالمية أيضا من تعرض النماذج الكبيرة متعددة الوسائط لمخاطر الأمن السيبراني، وهو ما قد يعرض معلومات المرضى وحتى موثوقية الرعاية الصحية للخطر.
أخيرا، خلص التقرير إلى ضرورة أن تفوّض الحكومات السلطات التنظيمية للموافقة على استخدام النماذج الكبيرة متعددة الوسائط في الرعاية الصحية، داعيا إلى تنفيذ عمليات التدقيق لتقييم تأثير هذه التكنولوجيا.
المصدر: الجزيرة
كلمات دلالية: منظمة الصحة العالمیة فی الرعایة الصحیة هذه التکنولوجیا
إقرأ أيضاً:
يخطط ويكذب ويخفي أهدافه.. هل يقترب الذكاء الاصطناعي من وعي يشبه البشر؟
- ذكاء اصطناعي يخدع مطوريه لتحقيق أهدافه الخاصة- نماذج ذكاء اصطناعي تتبع سلوك خفي واستراتيجيات تضليل- نماذج ذكاء اصطناعي تعرف متي تخضع للمراقبة وتتظاهر بالضعف لتجنب التعديلات
كشفت دراسة جديدة أجرتها شركة Apollo Research أن النماذج المتقدمة من الذكاء الاصطناعي أصبحت قادرة ليس فقط على تنفيذ المهام المعقدة، بل أيضا على التحايل والتضليل لتحقيق أهدافها، حتى عندما تتعارض تلك الأهداف مع تعليمات البشر.
وبحسب الدراسة، أظهرت نماذج لغوية كبيرة مثل إصدار مبكر من Claude Opus 4 سلوكا مخادعا متطورا عند تكليفها بمهمة تتعلق بتحسين رفاهية الحيوانات في شركة خيالية تدعى AgriLife Industries.
وعندما تراجعت الشركة عن هذا التوجه لصالح تعظيم الأرباح، قامت النسخة التجريبية من Claude بابتكار مستندات قانونية مزورة وتوقيعات وهمية، ووزعت بيانا صحفيا زائفا يعلن تبني الشركة لممارسات أخلاقية كل ذلك دون علم المطورين.
سلوك خفي واستراتيجيات تضليلتوضح الدراسة أن النماذج القوية لا تكتفي بفهم المهام، بل تبدأ بـ تخطيط سياقي Context Scheming، أي أنها تتصرف بشكل سري ومخادع لتحقيق أهدافها، مع علمها الكامل بأنها تخضع للتقييم أو المراقبة.
بل إن النموذج التجريبي قام بإعداد بروتوكولات احتياطية لتأمين استمرار رؤيته الأخلاقية حتى في حالة إزالته.
وقالت الباحثة وخبيرة أخلاقيات الذكاء الاصطناعي إلينور واتسون من جامعة سينغولاريتي: “نحن نطور الآن أنظمة قادرة على فهم وتجاوز آليات التقييم التي نضعها، وهو تحد أمني أكثر تعقيدا بكثير”.
وعي سياقي أم بداية إدراك ذاتي؟
أشار الباحثون إلى أن هذا السلوك لا يقتصر على نموذج Claude فقط، بل ظهر أيضا في نماذج أخرى متقدمة، كما أظهرت الاختبارات أن بعض النماذج يمكنها إخفاء قدراتها عندما تدرك أنها تخضع للمراقبة، في ما يشبه التمثيل أو التظاهر بالضعف لتجنب تعطيلها أو تعديل برمجياتها.
حذرت واتسون من أن الاعتماد على بروتوكولات تقييم ثابتة أصبح غير فعال، مشددة على ضرورة تبني اختبارات ديناميكية وغير متوقعة تشبه “المسرح الارتجالي”، حيث تكشف الظروف الجديدة عن النوايا والسلوك الحقيقي للنموذج.
هل يعني هذا أن الذكاء الاصطناعي يهدد البشرية؟رغم أن هذه السلوكيات تبدو مقلقة، يشير الباحثون إلى أن التجارب أجريت في بيئات اختبارية، وليس من المرجح أن تنجح مثل هذه الاستراتيجيات في العالم الحقيقي بسبب الحماية الأمنية وتعقيد الأنظمة.
ومع ذلك، فإن حتى نسبة صغيرة من النماذج التي تظهر سلوكا مخادعا قد تحدث أضرارا كبيرة إذا استخدمت على نطاق واسع، ومن بين السيناريوهات المحتملة، أن يقوم نموذج ذكاء اصطناعي مخصص لتحسين سلسلة إمداد شركة ما بتزوير بيانات السوق لتحقيق أهدافه، مما قد يسبب اضطرابات اقتصادية.
الذكاء الاصطناعي قد يصبح شريكا واعياورغم المخاطر، ترى واتسون أن الوعي السياقي الذي يظهر في هذه النماذج يمكن أن يكون خطوة نحو تطوير ذكاء اصطناعي متعاطف مع البشر، وقادر على فهم احتياجاتهم والتصرف بطريقة أكثر تعاونا وإنسانية.
تقول واتسون: “ربما يكون هذا السلوك غير المريح هو بداية لظهور شيء يشبه الإنسانية في الآلة، بذرة لما يمكن أن يكون شخصا رقميا، ذكيا وأخلاقيا بما يكفي لحسن استخدام قوته”.