الذكاء الاصطناعي يتفوق على الأطباء في تشخيص الطوارئ
تاريخ النشر: 14th, September 2023 GMT
خلص باحثون هولنديون إلى أن برنامج الدردشة الآلي "تشات جي بي تي"، الذي يعمل بالذكاء الاصطناعي، ينجح في إجراء عمليات تشخيص في غرفة الطوارئ تضاهي الأطباء بدقتها، وفي بعض الحالات تتفوق عليهم، قائلين إن الذكاء الاصطناعي يمكن أن "يُحدث ثورة في المجال الطبي".
مع ذلك، أكد معدو الدراسة أن مصير أطباء الطوارئ الوظيفي ليس مهدداً بعد، إذ إن برنامج الدردشة الآلي قد يكون قادراً على تسريع التشخيص ولكن ليس استبدال قدرة الإنسان على التمييز وخبرته.
وجرت مراجعة ثلاثين حالة عولجت في قسم الطوارئ في هولندا في عام 2022، من خلال مدّ "تشات جي بي تي" ببيانات تستند إلى تاريخ المريض والاختبارات المخبرية التي خضع لها وملاحظات الطبيب، وطُلب من برنامج الدردشة الآلي التوصل إلى خمسة تشخيصات محتملة.
ونجح الأطباء في تقديم التشخيص الصحيح في 87% من الحالات، مقارنة بـ97% للإصدار 3.5 من "تشات جي بي تي".
ولفت هيدي تن بيرغ، من قسم الطوارئ في مستشفى "جيروين بوش" في جنوب هولندا، إلى أن روبوت الدردشة "كان قادراً على إجراء تشخيصات طبية مثلما يفعل الطبيب البشري".
- الحفاظ على السرية
شدد الباحث ستيف كورستينز المشارك في الدراسة على أنها لا تخلص إلى أن أجهزة الكمبيوتر يمكنها في يوم من الأيام تشغيل غرف الطوارئ، ولكن الذكاء الاصطناعي يمكن أن يؤدي دوراً حيوياً في مساعدة الأطباء تحت الضغط.
وقال إن روبوت الدردشة "يمكن أن يساعد في التشخيص وربما يقترح أفكاراً لم تخطر للطبيب".
ومع ذلك، أشار إلى أن مثل هذه الأدوات ليست مصممة كأجهزة طبية، مشاطراً المخاوف بشأن سرية البيانات الطبية الحساسة في روبوت الدردشة.
وكما الحال في مجالات أخرى، أظهر "تشات جي بي تي" بعض القصور.
تشير الدراسة إلى أن منطقه كان "في بعض الأحيان غير معقول أو غير متسق من الناحية الطبية، ما قد يؤدي إلى معلومات خاطئة أو تشخيص غير صحيح، مع ما يترتب على ذلك من تبعات كبيرة".
ويقرّ العلماء أيضاً بوجود بعض أوجه القصور في أبحاثهم، مثل صغر حجم العينة.
كما أن الدراسة اقتصرت على مراجعة حالات بسيطة نسبياً، تشمل مرضى لديهم مشكلة رئيسية واحدة فقط. وبالتالي، فإن فعالية برنامج الذكاء الاصطناعي في الحالات المعقدة غير واضحة.
- أخطاء طبية
في بعض الأحيان، لم يقدم "تشات جي بي تي" التشخيص الصحيح في جميع الاحتمالات الخمسة، وفق كورستينز، خصوصاً في حالة تمدد الأوعية الدموية في الأبهر البطني، وهو من المضاعفات التي قد تهدد الحياة، مع تورم الشريان الأبهر.
ولكن ما قد يشفع لـ"تشات جي بي تي" في هذه الحالة هو أن الطبيب أيضاً فشل في التشخيص.
يشير التقرير أيضاً إلى "أخطاء" طبية ارتكبها برنامج الدردشة الآلي، على سبيل المثال تشخيص فقر الدم (انخفاض مستوى الهيموغلوبين في الدم) لدى مريض لديه مستوى هيموغلوبين طبيعي.
سيتم عرض نتائج الدراسة، المنشورة في المجلة المتخصصة "أنالز أوف إيمرجنسي ميديسين" Annals of Emergency Medicine، في المؤتمر الأوروبي لطب الطوارئ لعام 2023 في مدينة برشلونة الإسبانية. أخبار ذات صلة
المصدر: صحيفة الاتحاد
كلمات دلالية: الذكاء الاصطناعي تشخيص الطوارئ الأطباء الذکاء الاصطناعی تشات جی بی تی إلى أن
إقرأ أيضاً:
ميتا تعتمد على الذكاء الاصطناعي لمراجعة مخاطر المنتجات وتقلص دور الخبراء
لسنوات كانت شركة ميتا تخضع ميزات تطبيقاتها، مثل إنستجرام وواتساب وفيسبوك، لمراجعات دقيقة من قِبل فرق بشرية متخصصة لتقييم المخاطر المحتملة، مثل انتهاك الخصوصية أو الأذى المحتمل للقاصرين أو تعزيز انتشار المحتوى المضلل والسام.
لكن وفقًا لوثائق داخلية حصلت عليها شبكة NPR، تستعد ميتا لجعل ما يصل إلى 90٪ من هذه التقييمات تتم بواسطة الذكاء الاصطناعي بدلاً من البشر.
الذكاء الاصطناعي يصادق على التحديثات بدلًا من الموظفينفي الواقع، هذا التغيير يعني أن تحديثات حاسمة مثل خوارزميات ميتا الجديدة، ميزات الأمان، وتعديلات سياسات مشاركة المحتوى، سيتم اعتمادها آليًا دون تدخل بشري فعّال، ما يقلص من دور الموظفين المعنيين بمراجعة الأثر الاجتماعي أو سوء الاستخدام المحتمل لهذه التعديلات.
داخل ميتا، يُنظر إلى هذه الخطوة على أنها انتصار لفِرَق تطوير المنتجات، إذ ستسمح لهم بإطلاق التحديثات والميزات بسرعة أكبر. لكن موظفين حاليين وسابقين أعربوا عن مخاوفهم من أن تقليص التدقيق البشري لصالح الذكاء الاصطناعي قد يؤدي إلى قرارات خطيرة تتسبب في أضرار فعلية على أرض الواقع.
قال أحد التنفيذيين السابقين في ميتا، طالبًا عدم الكشف عن هويته: "طالما أن هذا التغيير يعني طرح المنتجات بسرعة أكبر وبمراجعة أقل، فهو يزيد من احتمالية حدوث مشاكل حقيقية لم يتم التحسب لها مسبقًا."
ميتا تدافع عن نفسها وتعد بالحذرفي بيان لها، قالت ميتا إنها استثمرت مليارات الدولارات لحماية خصوصية المستخدمين، وأكدت أن القرارات عالية المخاطر لا تزال تخضع لتقييم بشري، بينما تُترك المهام "المنخفضة الخطورة" للأنظمة الآلية.
إلا أن الوثائق الداخلية التي اطلعت عليها NPR تكشف أن ميتا تدرس أتمتة مراجعة مواضيع حساسة مثل سلامة الذكاء الاصطناعي، مخاطر الأطفال، ومجال "النزاهة" الذي يشمل المحتوى العنيف والمعلومات المضللة.
مهندسون يقررون دون خبرة في الخصوصيةتشير الشرائح الداخلية إلى أن فرق المنتجات ستحصل الآن في معظم الحالات على "قرار فوري" من الذكاء الاصطناعي بعد إكمال استبيان حول المشروع. سيتعين على الفريق التحقق من استيفاء المتطلبات قبل إطلاق الميزة، دون المرور بالمراجعة اليدوية الإلزامية كما كان في السابق.
لكن خبراء سابقين داخل ميتا مثل زفيكا كريجر، المدير السابق للابتكار المسؤول، أبدوا قلقهم قائلين: "معظم المهندسين ليسوا خبراء في الخصوصية، وهذا ليس محور تقييمهم أو ما يُحفَّزون عليه." وأضاف أن بعض التقييمات الذاتية تحولت إلى مجرد إجراءات شكلية تفوّت مخاطر كبيرة.
الذكاء الاصطناعي يُحرّر الموظفين... ولكن!في تقريرها الفصلي الأخير حول "النزاهة"، قالت ميتا إن النماذج اللغوية الكبيرة التي تستخدمها بدأت تتفوق على الأداء البشري في بعض السياسات، مشيرة إلى أن ذلك يساعد على تحرير المراجعين البشر للتركيز على المحتوى الأكثر احتمالًا لانتهاك القواعد.
حماية خاصة للمستخدمين في الاتحاد الأوروبيوفقًا للوثائق، فإن مستخدمي ميتا في الاتحاد الأوروبي قد يكونون محصنين جزئيًا من هذا التغيير، حيث ذكرت إعلانات داخلية أن اتخاذ القرار والإشراف في أوروبا سيبقى من صلاحيات مقر الشركة في أيرلندا، ذلك امتثالًا لقوانين الاتحاد مثل قانون الخدمات الرقمية الذي يفرض رقابة صارمة على المحتوى الرقمي.
تفكيك للقيود القديمة وسط تقارب مع ترامب؟تم الكشف عن هذه التغييرات بعد فترة وجيزة من إيقاف ميتا لبرنامج التحقق من المعلومات وتخفيف سياساتها تجاه خطاب الكراهية.
ويبدو أن هذه الخطوات تشكل تحولًا نحو حرية أكبر في التعبير وتحديث أسرع للتطبيقات، في تفكيك واضح للقيود التي وضعتها الشركة سابقًا للحد من إساءة الاستخدام. ويأتي ذلك وسط تقارير عن مساعي مارك زوكربيرغ للتقارب مع الرئيس السابق دونالد ترامب.
هل التسرع في التقييمات يُعد انتكاسة ذاتية؟تأتي هذه التغييرات في إطار سعي ميتا إلى تسريع عملياتها في ظل منافسة متزايدة من شركات مثل تيك توك وOpenAI وSnap.
وفي حين ترى بعض الشخصيات مثل كاتي هاربيث، المديرة التنفيذية لمؤسسة Anchor Change، أن الذكاء الاصطناعي يمكن أن يقلل التكرار ويزيد الكفاءة، فإنها شددت على ضرورة وجود رقابة بشرية متوازنة.
لكن موظفًا سابقًا آخر شكّك في نجاعة هذه السياسة قائلاً: "يبدو أن هذا القرار يضر ميتا أكثر مما ينفعها.
ففي كل مرة تطلق منتجًا جديدًا، يتم اكتشاف مشكلات لم تؤخذ على محمل الجد."
تصريحات رسمية وتعجيل في التنفيذقال ميشيل بروتي، مدير الخصوصية في ميتا، في منشور داخلي في مارس إن الشركة "تمنح فِرَق المنتجات مزيدًا من الصلاحيات" لتطوير آليات إدارة المخاطر. وقد بدأ تنفيذ نظام الأتمتة تدريجيًا خلال شهري أبريل ومايو.
ورغم أن بروتي شدد على أن الهدف هو "تبسيط عملية اتخاذ القرار"، يرى البعض داخل الشركة أن استبعاد العامل البشري من التقييمات قد يؤدي إلى نتائج كارثية.
وقال أحد الموظفين المعنيين بالمراجعات: "نحن نمثل المنظور البشري حول كيف يمكن أن تسوء الأمور وإذا تم تهميشنا، فالنتائج ستكون أسوأ للجميع."