دراسة تحذر: الغطاء الجليدي في العالم بخطر
تاريخ النشر: 17th, November 2023 GMT
حذرت دراسة لمنظمة غير حكومية، من أن الغطاء الجليدي في العالم بخطر.
ووفقا للدراسة، التي أعدتها المبادرة الدولية للغلاف الجليدي والمناخ، فإن احتمال ارتفاع لدرجات حرارة الأرض بمعدل درجتين مئويتين فوق مستويات ماقبل الثورة الصناعية يندد بعواقب كارثية علي الأنهار الجليدية والقمم والبحار القبطية والتربة الصقيعية علي الأرض .
ولفتت الدراسة، إلى أن أبحاثا حديثة وضحت أن انخفاضا كبيرا في انبعاثات غازات الدفيئة قادر بمفرده على منع تسجيل عواقب دائمة على "الغطاء الجليدي" العالمي، الذي يمثل أقساماً من الأرض مغطاة بالجليد والثلوج لفترة من السنة على الأقل
ودعت الدراسة المشاركين في المفاوضات العالمية المقبلة حول المناخ إلى سرعة للحد من الاحترار العالمي عند مستوى 1,5 درجة مئوية مقارنة بمعدلات ما قبل الثورة الصناعية.
وتتمثل أهداف اتفاق باريس للمناخ بإبقاء الاحترار العالمي أقل من درجتين مئويتين، إلا أن الأمم المتحدة أوضحت هذا الأسبوع إن الالتزامات العالمية المرتبطة بالمناخ بعيدة عن تحقيق هذا الهدف.
وقالت الدراسة: "نظرا لما توصلنا إليه عن الغطاء الجليدي منذ توقيع اتفاقية باريس في العام 2015، يبدو أن حصر الاحترار بدرجة مئوية ونصف درجة ليست أفضل من حصره بدرجتين"، وفقا لفرانس برس".
وحذر معدو الدراسة وعلماء عالميون من أن ذوبان القمم الجليدية سيؤدي، في حال ارتفاع درجات حرارة الأرض بمقدار درجتين مئويتين، إلى "ارتفاع كبير وربما سريع ودائم في مستويات المحيطات".
وسيشهد العالم ذوباناً كبيراً في الأنهار الجليدية، مع احتمال "اختفاء بعضها بشكل نهائي"، بحسب ما ذكرت الوكالة الفرنسية.
المصدر: البوابة نيوز
كلمات دلالية: الاحترار العالمي ارتفاع درجات حرارة انبعاثات غازات فرانس برس اتفاق باريس للمناخ
إقرأ أيضاً:
دراسة: الذكاء الاصطناعي يقع في نفس أخطاء البشر.. متحيز وواثق بنفسه
كشفت دراسة حديثة أن نموذج الذكاء الاصطناعي "تشات جي بي تي" (ChatGPT) يعاني من انحيازات معرفية مشابهة لتلك التي يعاني منها البشر، ما يؤثر بشكل مباشر على طريقة اتخاذه للقرارات.
وأظهرت الدراسة، التي نشرتها مجلة "Manufacturing Management"، أن "الذكاء الاصطناعي واثق بنفسه ومتحيز مثل البشر"، مؤكدة أن هذه الأنماط ليست عشوائية بل جزء من منهجية عمل النظام.
وأكدت الدراسة أن "تشات جي بي تي" وقع في العديد من الانحرافات الإدراكية البشرية في نحو نصف السيناريوهات التي خضع لها، منها الميل لتجنب المخاطر والثقة الزائدة وتأثير التملك سواء في سياقات نفسية أو أعمال واقعية، حسب موقع "Naukatv".
وأشارت الدراسة، التي أجراها باحثون من خمس جامعات كندية وأسترالية، إلى أنهم اختبروا نماذج GPT-3.5 وGPT-4 من شركة OpenAI، لقياس مدى انحرافها عن التفكير المنطقي، رغم ما وصفوه بـ"الاتساق المثير للإعجاب" في التفكير.
وبيّن الباحثون أن GPT-4 أظهر أداء أفضل في المسائل الحسابية والسيناريوهات المبنية على الاحتمالات، لكنه في المقابل وقع في أخطاء غير عقلانية عند مواجهة مواقف تتطلب قرارات ذات طابع شخصي أو استراتيجي، مشددين على أن GPT-4 أظهر ميلا أكبر نحو التنبؤ والسلامة مقارنة بالبشر.
ولفتت الدراسة إلى أن سلوك الذكاء الاصطناعي بقي متماسكا بغض النظر عن طبيعة الأسئلة، ما يعزز الاستنتاج بأن هذه الانحرافات ليست نتيجة أمثلة محفوظة فقط، بل تعكس منهجية داخلية في تفكير الآلة.
كما أضاف الباحثون أن GPT-4 عزز أحيانًا الأخطاء البشرية، وأظهر ميلاً أعلى لتصديق ما يُعرف بتأثير اليد الساخنة مقارنة بـGPT-3.5، في حين تمكن من تجنب بعض الانحيازات الأخرى مثل تجاهل الاحتمالات الأساسية.
وقال رئيس الفريق البحثي وأستاذ إدارة العمليات في كلية آيفي بكندا، يانغ تشين، إنه "من أجل الحصول على مساعدة دقيقة وموضوعية في اتخاذ القرار، استخدم GPT في المهام التي تثق فيها بالآلة الحاسبة. ولكن إذا تطلب القرار بيانات استراتيجية أو ذات طابع شخصي، فالإشراف البشري ضروري".
وأضاف أنه "لا ينبغي اعتبار الذكاء الاصطناعي موظفا يتخذ قرارات مصيرية. بل يجب إخضاعه للرقابة وتوجيهات أخلاقية، وإلا فإننا نخاطر بأتمتة تفكير خاطئ بدلا من تحسينه".