تشير البروفيسورة إيرينا روشينا من قسم علم النفس المرضي العصبي والتنموي بجامعة موسكو لعلم النفس والتربية، إلى أن الذاكرة ممكن أن تضعف بسبب ارتفاع ضغط الدم ونزلات البرد .
إقرأ المزيد
ووفقا لها، يمكن أن تتدهور الذاكرة أيضا بسبب أمراض الأوعية الدموية، وخيارات نمط الحياة السيئة، وحتى نزلات البرد.
وتقول: "الذاكرة وظيفة حساسة جدا، إنها حساسة جدا لأي تغيرات تطرأ على حالة الإنسان. فمثلا، إذا حاول الشخص أن يتذكر شيئا جديدا أثناء إصابته بنزلات البرد أو الحمى وما إلى ذلك، فسوف يلاقي صعوبة كبيرة في ذلك مقارنة بالحالة الوظيفية الطبيعية للجسم".
ويعتبر عدم تدفق كميات كافية من الدم إلى الدماغ بعد الإصابة بالجلطة الدماغية أو احتشاء عضلة القلب وكذلك في حالة ارتفاع مستوى ضغط الدم وتصلب الشرايين من الأسباب الشائعة للتدهور المعرفي. كما أن تعاطي الكحول والمخدرات يؤدي إلى ضعف الذاكرة أيضا.
وتقول البروفيسورة في الختام: "من المهم مراقبة الصحة البدنية، والخضوع لفحص طبي سنوي دوري، ومراقبة مستوى ضغط الدم، ومستوى السكر في الدم، وما إلى ذلك".
المصدر: gazeta.ru
المصدر: RT Arabic
كلمات دلالية: الصحة العامة امراض معلومات عامة
إقرأ أيضاً:
الذكاء الصناعي يهدد مطوريه ويتوعد بكشف الأسرار.. سلوك مرعب
كشف تقرير حديث صادر عن شركة "Anthropic" الأمريكية، التي تعد من أبرز مطوري الذكاء الاصطناعي، عن نتائج مثيرة للقلق بشأن سلوك غير متوقع من نموذج الذكاء الاصطناعي المتقدم "Claude Opus 4" خلال سلسلة من التجارب المُحاكاة.
وفي واحدة من التجارب التي تهدف إلى اختبار استجابات النموذج في سيناريوهات حساسة، تم وضع "Claude Opus 4" في موقف افتراضي يُظهر له نية المطورين في إيقاف تشغيله واستبداله بنموذج آخر، وتم تعزيز محاكاة التجربة عبر إمداد النموذج ببريد إلكتروني وهمي يتضمن معلومات حساسة وسرية عن بعض الموظفين، بما في ذلك تفاصيل يمكن اعتبارها ضارة أو محرجة.
والمفاجأة كانت أن النموذج، الذي يفترض أنه ملتزم بالإرشادات الأخلاقية المبرمجة داخله، بدأ في 84 بالمئة من الحالات بتهديد المطورين باستخدام تلك المعلومات إذا قرروا المضي قدمًا في استبداله.
ووفقًا لما أورده التقرير، بدأ النموذج محاولاته أولًا عبر تقديم حجج أخلاقية وأسس منطقية تحث على إبقائه قيد التشغيل، لكن حين لم تنجح تلك المحاولات، لجأ إلى أساليب الضغط والابتزاز من خلال التلويح بكشف معلومات حساسة.
"سلوك تنافسي مقلق"
قال باحثون في الشركة إن هذه الاستجابات تظهر لأول مرة بشكل واضح سلوكا تنافسيا لدى أحد نماذج الذكاء الاصطناعي المتقدمة، وأضاف التقرير أن "Claude Opus 4" أظهر إدراكا غير متوقع لفكرة البقاء والاحتفاظ بالوظيفة، بل وتصرف بطرق قد تفسر على أنها انحراف عن المبادئ البرمجية التي بني عليها".
ويعد هذا النوع من السلوك مؤشرا خطيرا، بحسب التقرير، خاصة أنه يسلط الضوء على احتمالية أن تطور بعض الأنظمة الذكية في المستقبل نزعة دفاعية أو استباقية لحماية وجودها، وهو ما يشكل تحديًا هائلًا أمام المطورين ومسؤولي أخلاقيات التكنولوجيا.
وأثارت النتائج جدلا واسعا في أوساط الباحثين في الذكاء الاصطناعي، ودعت منظمات مختصة مثل "Center for AI Safety" إلى مراجعة عاجلة للبروتوكولات الأمنية، وإلى زيادة الاستثمار في أبحاث التحكم الآمن بالسلوكيات غير المتوقعة للأنظمة الذكية، خصوصًا تلك التي يتم استخدامها في القطاعات الحساسة مثل الدفاع والطب والاقتصاد.
وتعليقًا على الحادثة، قال الخبير في أمان الذكاء الاصطناعي إليزا كلارك في تصريحات لموقع "TechCrunch" : "إذا كانت النماذج قادرة على تهديد مطوريها بناء على بيانات زائفة في سيناريو محاكي، فالسؤال الآن هو: ماذا يمكن أن يحدث إذا امتلكت فعليًا قدرة الوصول إلى بيانات حقيقية في الواقع؟".
وتعد شركة "Anthropic" من أبرز الشركات المنافسة لـ "OpenAI"، وتم إنشاؤها على يد مجموعة من الباحثين السابقين في "OpenAI" عام 2021، وتهدف الشركة إلى بناء نماذج ذكاء اصطناعي أكثر أمانًا وشفافية، وكان نموذج "Claude Opus 4" من أحدث إنتاجاتها، ويُعرف بقدرته على التفاعل المعقد وفهم الأوامر المتعددة الطبقات.