دراسة صادمة تكشف.. خطأ إملائي واحد في استشارتك الطبية قد يدفع الذكاء الاصطناعي للخطأ
تاريخ النشر: 2nd, September 2025 GMT
في اكتشاف يسلط ضوءًا تحذيريًا على الاعتماد المتزايد على الذكاء الاصطناعي في الاستشارات الصحية، كشفت دراسة حديثة عن ثغرة مقلقة في نماذج اللغات الكبيرة (LLMs) مثل ChatGPT، مؤكدة أن خطأً إملائيًا واحدًا وبسيطًا قد يغير تمامًا التشخيص الطبي الذي تقدمه، مما يهدد سلامة المستخدمين.
وقد أظهرت الدراسة، التي أجراها باحثون في مجال تقاطع التكنولوجيا مع الرعاية الصحية، أن هذه الأنظمة المتطورة، رغم قدراتها الفائقة، تفتقر إلى الفهم السياقي الذي يتمتع به الأطباء البشريون للتعامل مع الأخطاء البشرية الشائعة.
اعتمدت منهجية البحث على تقديم استعلامات وسيناريوهات طبية متطابقة لنماذج الذكاء الاصطناعي الرائدة. تم إدخال كل استعلام مرتين: مرة بصيغة إملائية صحيحة تمامًا، ومرة أخرى مع إحداث خطأ إملائي متعمد في مصطلح طبي أساسي، كأن يتم تغيير حرف واحد فقط.
وكانت النتائج مثيرة للقلق؛ ففي نسبة كبيرة من الحالات، أدى الخطأ الإملائي إلى تغيير جذري في مخرجات الذكاء الاصطناعي.
على سبيل المثال، استعلام عن أعراض قد يشير إلى حالة بسيطة عند كتابته بشكل صحيح، تحول إلى توصية بالبحث عن علاج لحالة أكثر خطورة عند وجود الخطأ الإملائي، والعكس صحيح، مما قد يسبب إما حالة من الذعر غير المبرر أو شعورًا زائفًا بالأمان يتسبب في إهمال حالة طبية طارئة.
يفسر الخبراء هذه الظاهرة بأن الذكاء الاصطناعي لا "يفهم" القصد وراء الكلمات كما يفعل البشر. فعندما يقرأ الطبيب مصطلحًا طبيًا به خطأ إملائي، فإنه يستخدم خبرته وسياق الحديث لفهم الكلمة المقصودة.
في المقابل، يتعامل النموذج اللغوي مع الكلمة المكتوبة بشكل خاطئ كبيانات مختلفة تمامًا، مما يدفعه إلى استدعاء أنماط وارتباطات إحصائية مختلفة من بياناته التدريبية الهائلة، لينتهي به الأمر إلى نتيجة مختلفة كليًا.
توصيات عاجلة بضرورة الإشراف البشريتؤكد نتائج هذه الدراسة على أن نماذج الذكاء الاصطناعي، في شكلها الحالي، يجب أن تُعامل كأداة مساعدة للمختصين وليس كبديل لهم.
ويحذر الباحثون والمجتمع الطبي من مخاطر الاعتماد على هذه التطبيقات في التشخيص الذاتي، مشددين على أن الكلمة الفصل في أي شأن طبي يجب أن تكون دائمًا للطبيب البشري المؤهل.
وفيما يمثل الذكاء الاصطناعي وعدًا هائلاً بإحداث ثورة في كفاءة الرعاية الصحية، فإن هذه الدراسة تضع تذكيرًا حاسمًا بأن سلامة المرضى يجب أن تظل الأولوية القصوى، وأن الثقة العمياء في التكنولوجيا دون إدراك قيودها قد تكون لها عواقب وخيمة.
المصدر: صدى البلد
كلمات دلالية: الذكاء الاصطناعي دراسة حديثة اللغات الذکاء الاصطناعی
إقرأ أيضاً:
خلع ضرس العقل يعزز حاسة التذوق.. دراسة تكشف تأثيرًا غير متوقع
كشفت دراسة حديثة أجراها باحثون من جامعة بنسلفانيا عن تأثير مفاجئ وغير متوقع لخلع ضرس العقل على حاسة التذوق، موضحة كيف يمكن أن تتحسن قدرة الأشخاص على التمييز بين النكهات بعد العملية.
وفقًا للنتائج، فإن خلع ضرس العقل قد يحسن وظيفة التذوق تدريجيًا على مدى سنوات بعد العملية، رغم أن التأثير لا يظهر عند كل الأشخاص.
وأوضحت الدراسة أن ضرس العقل أحيانًا يضغط على أعصاب معينة في الفم، وعند خلعه بطريقة خاطئة قد يؤدي إلى شعور مؤقت بـ«تنميل الشفاه» يؤثر على حاسة التذوق في البداية.
وأظهرت الدراسة أن قدرة التذوق تتحسن بشكل ملحوظ بعد فترة قد تصل إلى 20 عامًا من خلع ضرس العقل، وهو اكتشاف مذهل يبرز تأثير العملية على الحواس بشكل غير متوقع.
حلل الباحثون بيانات 1255 مريضًا على مدار 20 عامًا لتقييم التمييز بين الطعم الحلو والمالح والحامض والمُر، بينهم 891 مريضًا خضعوا لخلع ضرس العقل. وخلصت النتائج، المنشورة في مجلة Chemical Senses، إلى أن المجموعة التي أجرت العملية تفوقت في التذوق مقارنة بالمجموعة الأخرى، كما سجلت النساء أداء أفضل من الرجال.
وأشار الباحثون إلى أن الأشخاص الذين خضعوا للخلع سجلوا تحسنًا بنسبة 3-10% في التمييز بين النكهات الأربع في المتوسط، مما يعزز فكرة أن إزالة ضرس العقل قد يكون لها تأثير إيجابي طويل المدى على حاسة التذوق.