كشفت دراسة علمية عن فائدة صحية غير متوقعة لمن يتبرعون بالدم بانتظام. وهي أنهم يصبحون أكثر عرضة لحدوث تغيرات جينية في دمائهم. والتي قد تقلل من خطر الإصابة بالسرطان.

وأظهر البحث الجديد، أن الأشخاص الذين تبرعوا بالدم أكثر من 100 مرة، يمتلكون خلايا دم تحمل طفرات مفيدة. ما قد يعزز إنتاجها، ويخفض من خطر الإصابة بسرطان الدم.

وحلل باحثون من معهد فرانسيس كريك في لندن، عينات دم 217 متبرعا بصورة متكررة في ألمانيا. ووجدوا أن لديهم نسبة أعلى من الطفرات في جين “DNMT3A” مقارنة بمتبرعين أقل.

كما أظهرت التجارب المخبرية أن هذه الطفرات تنمو بشكل أسرع بنسبة 50% بعد التبرع. نتيجة تأثير هرمون “EPO”، الذي يحفّز تجديد خلايا الدم بعد فقدانه. وتوصل الباحثون في دراستهم، إلى أن طفرات “DNMT3A” مفيدة. وقد تكبح نمو الخلايا السرطانية.

وقال الباحثون إن النتائج “مذهلة”، ويمكن أن تساعد في فهم كيفية ولماذا تتطور سرطانات الدم.

وخلصوا إلى أن التبرع بالدم قد يحسن كفاءة الخلايا الجذعية، لكنهم أكدوا على ضرورة إجراء دراسات أوسع للتحقق من هذه الفوائد على نطاق أوسع يشمل مختلف الأعمار والأعراق.

المصدر: النهار أونلاين

كلمات دلالية: حديث الشبكة

إقرأ أيضاً:

كلما اختصر.. اختلق! الوجه الخفي للذكاء الاصطناعي

كشفت دراسة حديثة أجرتها شركة Giskard الفرنسية المتخصصة في اختبار أنظمة الذكاء الاصطناعي، أن طلب الإيجاز من روبوتات المحادثة مثل ChatGPT قد يزيد من ميلها إلى "الهلوسة" أي اختلاق معلومات غير دقيقة أو غير حقيقية.


تفاصيل الدراسة


ووفقاً لموقع "تك كرانش" نشر الباحثون نتائجهم في تدوينة تفصيلية، أشاروا فيها إلى أن التوجيهات التي تطلب إجابات قصيرة، خاصة على أسئلة غامضة أو مبنية على معلومات خاطئة، تؤدي إلى انخفاض ملحوظ في دقة المحتوى الذي تقدمه النماذج.

وقال الباحثون: "تُظهر بياناتنا أن تغييرات بسيطة في التوجيهات تؤثر بشكل كبير على ميل النموذج إلى الهلوسة".
وهو ما يثير القلق، خاصة أن كثيرًا من التطبيقات تعتمد على الإجابات الموجزة بهدف تقليل استخدام البيانات، وتسريع الاستجابة، وتقليص التكاليف.

 

 

 




اقرأ ايضاً.. الذكاء الاصطناعي يزداد عبقرية.. لكنه يُتقن الكذب

 

الهلوسة ليست مشكلة جديدة في الذكاء الاصطناعي، حتى النماذج الأحدث مثل GPT-4o وClaude 3.7 Sonnet تعاني منها بدرجات متفاوتة. لكن المفاجئ في الدراسة كان اكتشاف أن مجرد طلب إيجاز في الإجابة يمكن أن يزيد من احتمالية وقوع هذه الأخطاء.

ويرجّح الباحثون أن السبب يكمن في أن الإجابات القصيرة لا تتيح للنموذج "المجال" الكافي لتفنيد المغالطات أو شرح التعقيدات. فيكون أمام خيارين: الإيجاز أو الدقة، وغالبًا ما يختار الأول على حساب الثاني.

أخبار ذات صلة «جامعة الإمارات» تطلق مركز الحوسبة عالية الأداء عندما يتحدث البشر.. هل يفهم الذكاء الاصطناعي "ما بين السطور" ؟!


اقرأ أيضاً.. الذكاء الاصطناعي يتقن الخداع!




عبارات بريئة.. لكنها تخدع النموذج

أظهرت الدراسة أن النماذج الشهيرة مثل GPT-4o وMistral Large وClaude Sonnet  تصبح أقل دقة عندما تُطلب منها إجابات مقتضبة على أسئلة مشوشة .

فبدلًا من الإشارة إلى أن السؤال يحتوي على فرضية خاطئة، تميل النماذج إلى تقديم إجابة مختصرة تكميلية للخطأ، مما يعزز التضليل بدلاً من تصحيحه.

 

 

وحذرت الدراسة أيضًا من أن بعض النماذج تميل إلى تفادي التصحيح عندما تُطرح المعلومات المغلوطة بطريقة واثقة، في محاولة لمجاراة توقّعات المستخدم، حتى وإن كانت خاطئة.

تُبرز الدراسة مفارقة مؤسفة تتمثل في أن تحسين تجربة المستخدم من خلال الإجابات المختصرة قد يأتي على حساب دقة الحقيقة. لذلك، يوصي الباحثون بضرورة توخي الحذر عند تصميم الأوامر والتعليمات الموجهة للذكاء الاصطناعي، مع التأكيد على أهمية تحقيق توازن بين سرعة الإجابة وموثوقيتها.


إسلام العبادي(أبوظبي)

مقالات مشابهة

  • مفاجأة.. الإفراط في تناول الدجاج يرتبط بمخاطر صحية
  • تحذير صحي: وضع الهاتف في جيب البنطال قد يسبب العقم للرجال
  • طلاب جامعة كفر الشيخ يدشنون حملة للتبرع بالدم .. صور
  • حملة موسعة للتبرع بالدم دعمًا لمستشفى كفر الشيخ الجامعي
  • البطن الكبير يسبب الأمراض للأطفال في سن العاشرة
  • ارتفاع الكوليسترول في نظام الكيتو لا يسبب أمراض القلب
  • دراسة علمية: أجساد البشر تصدر ضوءا خافتا يتلاشى عند الموت
  • كلما اختصر.. اختلق! الوجه الخفي للذكاء الاصطناعي
  • انقطاع الكهرباء يسبب اختناقات مرورية في بريطانيا.. ايه الحكاية؟
  • تحفيز الخلايا العصبية يمنح الأمل لاستعادة البصر