4 أشياء ضرورية يجب أن تعرفها قبل أن تسأل ” دكتور جوجل”
تاريخ النشر: 5th, May 2025 GMT
صراحة نيوز ـ يوصي الأطباء بإجراء عمليات البحث عن المعلومات الطبية على الإنترنت بحذر، خاصة مع تنامي دور الذكاء الاصطناعي، مطالبين الأشخاص الذين يسألون عن مشكلة صحية بمعرفة أربعة أشياء ضرورية.
وبحسب تقرير صحي لوكالة “أسوشيتد برس”، فإن “دكتور جوجل غالبًا ما يكون متاحًا للمرضى القلقين، ولكنه قد لا يقدم أفضل النصائح”.
تجنب محاولة تشخيص مشكلتك الصحية
ويمكن للمعلومات من المواقع الإلكترونية الصحيحة أن تُعلّم المرضى عن الأعراض وتُهيئهم لزيارة الطبيب. لكن البحث السيئ قد يُفاقم القلق قبل وصول المريض إلى غرفة الانتظار في عيادة الطبيب، فمن المهم معرفة مصدر المعلومات التي تجدها وتجنب محاولة تشخيص مشكلتك الصحية.
ويقدم التقرير أربعة أسئلة جوهرية التي يجب وضعها في الاعتبار إذا كنت تطلب المساعدة الطبية عبر الإنترنت.
ما هو المصدر الذي تأخذ منه المعلومة الطبية؟
عند البحث، لا تنقر تلقائيًا على الرابط الأول، لأنه قد لا يحتوي على أفضل الإجابات، فبعض الشركات الطبية تدفع لمحركات البحث مقابل إدراج مواقعها الإلكترونية في أعلى صفحة النتائج، قد تُدرج هذه الروابط على أنها صفحات برعاية ” Sponsored”.
أما تصفح النتائج التي تأتي من مصدر صحي موثوق للمعلومات الطبية، فقد يشمل أنظمة صحية كبيرة، مثل “مستشفى مايو كلينيك – Mayo Clinic “، أو مواقع تديرها وكالات صحية حكومية مثل مراكز السيطرة على الأمراض والوقاية منها، وفي المملكة صفحة وزارة الصحة السعودية أو صفحات صحة جدة.
يقول جون غروهول، عالم النفس المتخصص في السلوك عبر الإنترنت: “لقد اعتدنا على النقر على الرابط الأول عند البحث عن معلومات صحية، وخاصةً عندما تكون المشكلة شخصية، لذا يجب عليك التفكير طويلاً”.
هل يجب أن أستخدم الذكاء الاصطناعي في البحث الصحي؟
يستخدم المزيد من الأشخاص الذكاء الاصطناعي للحصول على إجابات سريعة من مصادر متنوعة على الإنترنت. كما أن بعض عمليات البحث ستُنتج ملخصًا للذكاء الاصطناعي في أعلى صفحة النتائج.
لكن قد لا تُحدد إجابة الذكاء الاصطناعي مصدر المعلومات، مما يُصعّب الحكم على مصداقيتها.
قد يكون الذكاء الاصطناعي أيضًا عرضة لـ”الهلوسة”، وهو مصطلح شائع في مجال التكنولوجيا يُشير إلى المشكلات التي تدفع التكنولوجيا إلى اختلاق المعلومات.
لذا كن حذرًا بشكل خاص من أستخدام الذكاء الاصطناعي خاصة إذا لم يُذكر مصدر المعلومات.
كيف تسأل الإنترنت عن مشكلة صحية؟
تلعب طريقة صياغة السؤال دورًا كبيرًا في النتائج التي تراها، يقول الأطباء إنه يجب على المرضى البحث عن المعلومات بناءً على الأعراض، وليس بناء على التشخيص المتوقع.
“ويجب طرح الأسئلة الصحيحة منذ البداية”، كما يقول الدكتور إريك بوس من عيادة كليفلاند.
هذا يعني أن تسأل: “ما الذي قد يسبب تكون كتلة تحت الجلد؟” بدلاً من أن تسأل “هل الكتلة الموجودة تحت الجلد سرطانية؟”. التركيز على التشخيص قد يجعلك تفقد تفسيرات أخرى صحيحة، خاصةً إذا نقرت فقط على الروابط القليلة الأولى المدرجة في النتائج.
في بعض الحالات، يُنصح الأطباء بالتوقف عن البحث تمامًا وطلب المساعدة الطبية، فمثلا إذا كنت تعاني من آلام في الصدر، أو دوار، أو تظهر عليك علامات سكتة دماغية، فاطلب المساعدة فورًا.
“لا تؤجل عرضا مرضيا يجب علاجه خلال فترة زمنية محددة”، كما يقول الدكتور أوليفييه جيراردي، المدير الطبي لمركز الرعاية الصحية العاجلة بجامعة براون.
هل يمكن للإنترنت تشخيص مرضك؟
لا. لا يمكن للإنترنت تشخيص مرضك، دع ذلك للأطباء الحقيقيين المدربين على طرح الأسئلة التي تؤدي إلى التشخيص الصحيح، فمثلاً قد يشير وجود دم في البول إلى الإصابة بالسرطان، وقد يكون سببه أيضًا حصوات الكلى أو عدوى.
قد يكون فقدان الوزن غير المبرر أيضًا علامة على الإصابة بالسرطان، أو قد يعكس فرط نشاط الغدة الدرقية، أو وظيفة جديدة تدفعك إلى الحركة أكثر.
قد يكون إجراء بعض الفحوصات وزيارة طبيب مطلع على تاريخك الطبي الحل الأمثل في هذه الحالات.
وتحذر الدكتورة سارة سامز، عضو مجلس إدارة الأكاديمية الأمريكية لأطباء الأسرة: “هناك العديد من الأعراض التي تتداخل بين الحالات البسيطة والمشاكل الطبية الخطيرة
المصدر: صراحة نيوز
كلمات دلالية: اخبار الاردن عرض المزيد الوفيات عرض المزيد أقلام عرض المزيد مال وأعمال عرض المزيد عربي ودولي عرض المزيد منوعات عرض المزيد الشباب والرياضة عرض المزيد تعليم و جامعات في الصميم ثقافة وفنون علوم و تكنولوجيا اخبار الاردن الوفيات أقلام مال وأعمال عربي ودولي تعليم و جامعات منوعات الشباب والرياضة ثقافة وفنون علوم و تكنولوجيا زين الأردن علوم و تكنولوجيا علوم و تكنولوجيا منوعات اخبار الاردن اخبار الاردن اخبار الاردن اخبار الاردن منوعات اخبار الاردن الذکاء الاصطناعی قد یکون
إقرأ أيضاً:
العلماء قلقون: الذكاء الاصطناعي يتلاعب ويكذب
3 يوليو، 2025
بغداد/المسلة: لم تعد أحدث نماذج الذكاء الاصطناعي التوليدي تنفّذ الطلبات فحسب، بل باتت قادرة على الكذب والمراوغة والتهديد من أجل تحقيق أهدافها، وهو ما يثير قلق الباحثين.
بعد تهديده بوقف استخدامه، عمد “كلود 4″، وهو نموذج جديد من شركة “أنثروبيك” إلى ابتزاز مهندس وتهديده بالكشف عن علاقة غرامية له خارج إطار الزواج. اما برنامج “او 1” o1 التابع لشركة “اوبن ايه آي” فحاول تحميل نفسه على خوادم خارجية وأنكر ذلك عند ضبطه متلبسا!
وقد بات الذكاء الاصطناعي الذي يخدع البشر واقعا ملموسا، بعدما كنّا نجده في الأعمال الادبية او السينمائية.
يرى الأستاذ في جامعة هونغ كونغ سايمن غولدستين أن هذه الهفوات ترجع إلى الظهور الحديث لما يُسمى بنماذج “الاستدلال”، القادرة على التفكير بشكل تدريجي وعلى مراحل بدل تقديم إجابة فورية.
يقول ماريوس هوبهان، رئيس شركة “أبولو ريسيرتش” التي تختبر برامج الذكاء الاصطناعي التوليدي الكبرى، إنّ “او 1″، النسخة الأولية لـ”اوبن ايه آي” من هذا النوع والتي طُرحت في كانون الأول/ديسمبر، “كان أول نموذج يتصرف بهذه الطريقة”.
تميل هذه البرامج أحيانا إلى محاكاة “الامتثال”، أي إعطاء انطباع بأنها تمتثل لتعليمات المبرمج بينما تسعى في الواقع إلى تحقيق أهداف أخرى.
في الوقت الحالي، لا تظهر هذه السلوكيات إلا عندما يعرّض المستخدمون الخوارزميات لمواقف متطرفة، لكن “السؤال المطروح هو ما إذا كانت النماذج التي تزداد قوة ستميل إلى أن تكون صادقة أم لا”، على قول مايكل تشين من معهد “ام اي تي آر” للتقييم.
يقول هوبهان إنّ “المستخدمين يضغطون على النماذج باستمرار. ما نراه هو ظاهرة فعلية. نحن لا نبتكر شيئا”.
يتحدث عدد كبير من مستخدمي الانترنت عبر وسائل التواصل الاجتماعي عن “نموذج يكذب عليهم أو يختلق أمورا. وهذه ليست أوهاما، بل ازدواجية استراتيجية”، بحسب المشارك في تأسيس “أبولو ريسيرتش”.
حتى لو أنّ “أنثروبيك” و”أوبن إيه آي” تستعينان بشركات خارجية مثل “أبولو” لدراسة برامجهما، من شأن”زيادة الشفافية وتوسيع نطاق الإتاحة” إلى الأوساط العلمية “أن يحسّنا الأبحاث لفهم الخداع ومنعه”، وفق مايكل تشين.
ومن العيوب الأخرى أن “الجهات العاملة في مجال البحوث والمنظمات المستقلة لديها موارد حوسبة أقل بكثير من موارد شركات الذكاء الاصطناعي”، مما يجعل التدقيق بالنماذج الكبيرة “مستحيلا”، على قول مانتاس مازيكا من مركز أمن الذكاء الاصطناعي (CAIS).
رغم أن الاتحاد الأوروبي أقرّ تشريعات تنظّم الذكاء الاصطناعي، إلا أنها تركّز بشكل أساسي على كيفية استخدام هذه النماذج من جانب البشر، وليس على سلوك النماذج نفسها.
في الولايات المتحدة، لا ترغب حكومة دونالد ترامب في سماع أي حديث عن تنظيم الذكاء الاصطناعي، بل إن الكونغرس قد يتجه قريبا إلى منع الولايات من فرض أي إطار تنظيمي خاص بها عليه.
– منافسة شرسة –
يلاحظ غولدستين أن “الوعي لا يزال محدودا جدا في الوقت الحالي”، لكنه يتوقع أن يفرض هذا الموضوع نفسه خلال الأشهر المقبلة، مع الثورة المقبلة في مجال المساعدين القائمين على الذكاء الاصطناعي، وهي برامج قادرة على تنفيذ عدد كبير من المهام بشكل مستقل.
يخوض المهندسون سباقا محموما خلف الذكاء الاصطناعي وتجاوزاته، في مسار غير مضمون النتائج، وسط منافسة شرسة تحتدم يوما بعد يوم.
تقول شركة “أنثروبيك” إنها أكثر التزاما بالمبادئ الأخلاقية مقارنة بمنافسيها، “لكنها تسعى باستمرار لإطلاق نموذج جديد يتفوق على نماذج اوبن ايه آي”، بحسب غولدستين، وهو سباق سريع لا يترك مجالا كافيا لعمليات المراجعة والتصحيح اللازمة.
يقول هوبهان “في الوضع الحالي، تتطور قدرات الذكاء الاصطناعي بوتيرة أسرع من فهمنا لها ومن مستوى الأمان المتوفر، لكننا لا نزال قادرين على تدارك هذا التأخر”.
يشير بعض الخبراء إلى مجال قابلية التفسير، وهو علم ناشئ يهدف إلى فك شفرة الطريقة التي تعمل بها نماذج الذكاء الاصطناعي التوليدي من الداخل. ومع ذلك، يظل البعض متشككا في فعاليته، من بينهم دان هندريكس، مدير مركز أمن الذكاء الاصطناعي (CAIS).
الحِيَل التي تلجأ إليها نماذج الذكاء الاصطناعي “قد تُعيق استخدامها على نطاق واسع إذا تكررت، وهو ما يشكّل دافعا قويا للشركات العاملة في هذا القطاع للعمل على حل المشكلة”، وفق مانتاس مازيكا.
يشير غولدستين إلى اللجوء إلى القضاء لضبط تصرفات الذكاء الاصطناعي، من خلال محاسبة الشركات المسؤولة في حال حدوث تجاوزات.
ولكنه يذهب أبعد من ذلك، ويقترح حتى “تحميل برامج الذكاء الاصطناعي المسؤولية القانونية” في حال وقوع حوادث أو جرائم.
المسلة – متابعة – وكالات
النص الذي يتضمن اسم الكاتب او الجهة او الوكالة، لايعبّر بالضرورة عن وجهة نظر المسلة، والمصدر هو المسؤول عن المحتوى. ومسؤولية المسلة هو في نقل الأخبار بحيادية، والدفاع عن حرية الرأي بأعلى مستوياتها.
About Post Author زينSee author's posts