الوقاية من الأورام الليفية.. فوائد رائعة للشاي الأخضر للنساء لايف ستايل
تاريخ النشر: 16th, July 2023 GMT
لايف ستايل، الوقاية من الأورام الليفية فوائد رائعة للشاي الأخضر للنساء،توضيحية رام الله دنيا الوطنأعلن باحثون في كلية الطب بجامعة جون هوبكنز بالولايات .،عبر صحافة فلسطين، حيث يهتم الكثير من الناس بمشاهدة ومتابعه الاخبار، وتصدر خبر الوقاية من الأورام الليفية.. فوائد رائعة للشاي الأخضر للنساء، محركات البحث العالمية و نتابع معكم تفاصيل ومعلوماته كما وردت الينا والان إلى التفاصيل.
توضيحية رام الله - دنيا الوطنأعلن باحثون في كلية الطب بجامعة جون هوبكنز بالولايات المتحدة عن فائدة مركب في الشاي الأخضر (EGCG) لصحة النساء.
وقد درس الباحثون خلال الاختبارات ما قبل السريرية تأثير (EGCG) في مزارع الخلايا المختبرية للأورام الليفية الرحمية التي أخذت من نساء مريضات. وفق(روسيا اليوم).
وحقنت العينات بجرعة مقدارها 100 ميكرومول من المادة لكل لتر من وسط المغذيات لمدة 24 ساعة ، ثم بحثوا عن وجود بروتينات معينة (سيكلين D1 ، فبرونيكتين و CTGF) في الأنسجة.وقد اكتشف الباحثون أن (EGCG) يخفض مستوى بروتين الفبرونيكتين بنسبة 46-52 بالمئة مقارنة بمجموعة تحكم من خلايا الورم الليفي التي لم تحقن.
كما انخفضت كمية بروتينات (CTGF) بنسبة 86%، هذا يعني أن مركب الشاي الأخضر يعطل مسار الإشارات المسؤولة عن نمو الخلايا السرطانية وإشاراتها واستقلابها.واستنتج الباحثون، أن (EGCG) يمكن أن يصبح خياراً بسيطاً وميسورا لتخفيف أعراض وإبطاء نمو الأورام الليفية الرحمية، لأنه يكبح العديد من المسارات الجزيئية المسؤولة عن تطور هذه الأورام.
وأتضح أن هذه النتائج تتوافق مع نتائج اختبارات سريرية سابقة أجريت على النساء المصابات بالأورام الليفية يخططن للحمل.المصدر: صحافة العرب
كلمات دلالية: موعد عاجل الدولار الامريكي اليوم اسعار الذهب اسعار النفط مباريات اليوم جدول ترتيب حالة الطقس
إقرأ أيضاً:
كلما اختصر.. اختلق! الوجه الخفي للذكاء الاصطناعي
كشفت دراسة حديثة أجرتها شركة Giskard الفرنسية المتخصصة في اختبار أنظمة الذكاء الاصطناعي، أن طلب الإيجاز من روبوتات المحادثة مثل ChatGPT قد يزيد من ميلها إلى "الهلوسة" أي اختلاق معلومات غير دقيقة أو غير حقيقية.
تفاصيل الدراسة
ووفقاً لموقع "تك كرانش" نشر الباحثون نتائجهم في تدوينة تفصيلية، أشاروا فيها إلى أن التوجيهات التي تطلب إجابات قصيرة، خاصة على أسئلة غامضة أو مبنية على معلومات خاطئة، تؤدي إلى انخفاض ملحوظ في دقة المحتوى الذي تقدمه النماذج.
وقال الباحثون: "تُظهر بياناتنا أن تغييرات بسيطة في التوجيهات تؤثر بشكل كبير على ميل النموذج إلى الهلوسة".
وهو ما يثير القلق، خاصة أن كثيرًا من التطبيقات تعتمد على الإجابات الموجزة بهدف تقليل استخدام البيانات، وتسريع الاستجابة، وتقليص التكاليف.
اقرأ ايضاً.. الذكاء الاصطناعي يزداد عبقرية.. لكنه يُتقن الكذب
الهلوسة ليست مشكلة جديدة في الذكاء الاصطناعي، حتى النماذج الأحدث مثل GPT-4o وClaude 3.7 Sonnet تعاني منها بدرجات متفاوتة. لكن المفاجئ في الدراسة كان اكتشاف أن مجرد طلب إيجاز في الإجابة يمكن أن يزيد من احتمالية وقوع هذه الأخطاء.
ويرجّح الباحثون أن السبب يكمن في أن الإجابات القصيرة لا تتيح للنموذج "المجال" الكافي لتفنيد المغالطات أو شرح التعقيدات. فيكون أمام خيارين: الإيجاز أو الدقة، وغالبًا ما يختار الأول على حساب الثاني.
اقرأ أيضاً.. الذكاء الاصطناعي يتقن الخداع!
عبارات بريئة.. لكنها تخدع النموذج
أظهرت الدراسة أن النماذج الشهيرة مثل GPT-4o وMistral Large وClaude Sonnet تصبح أقل دقة عندما تُطلب منها إجابات مقتضبة على أسئلة مشوشة .
فبدلًا من الإشارة إلى أن السؤال يحتوي على فرضية خاطئة، تميل النماذج إلى تقديم إجابة مختصرة تكميلية للخطأ، مما يعزز التضليل بدلاً من تصحيحه.
وحذرت الدراسة أيضًا من أن بعض النماذج تميل إلى تفادي التصحيح عندما تُطرح المعلومات المغلوطة بطريقة واثقة، في محاولة لمجاراة توقّعات المستخدم، حتى وإن كانت خاطئة.
تُبرز الدراسة مفارقة مؤسفة تتمثل في أن تحسين تجربة المستخدم من خلال الإجابات المختصرة قد يأتي على حساب دقة الحقيقة. لذلك، يوصي الباحثون بضرورة توخي الحذر عند تصميم الأوامر والتعليمات الموجهة للذكاء الاصطناعي، مع التأكيد على أهمية تحقيق توازن بين سرعة الإجابة وموثوقيتها.
إسلام العبادي(أبوظبي)