نائب أردوغان: معركتنا الحازمة ضد التضخم ستستمر
تاريخ النشر: 4th, January 2024 GMT
أنقرة (زمان التركية) – قال نائب الرئيس التركي، جودت يلماز، إن الحكومة مصممة بكل حزم على خفض التضخم النقدي بكافة الوسائل.
وقام يلماز في تقييمه لمعدل التضخم النقدي خلال ديسمبر 2023، والذي سجل و64.77، قال يلماز إنه “بفضل الاستمرار الحازم في مكافحة التضخم، تمكنا من البقاء أقل من توقعات نهاية العام”.
وأكد يلماز أن تراجع التضخم على أساس شهري مستمر منذ شهر يوليو، وذلك بفضل السياسات النقدية والمالية المطبقة في مكافحة التضخم.
وأشار يلماز إلى انخفاض التغير في مؤشر أسعار المستهلك من 9.49% في يوليو إلى 2.93% في ديسمبر، وانخفاض الزيادة في مؤشر C، الذي يستخدم لمراقبة التضخم الأساسي، من 9.61% في يوليو إلى 2.31% في ديسمبر.
وأضاف يلماز: “وبينما يبلغ متوسط معدلات التضخم الشهرية المعلنة لعام 2022 نحو 4.26 بالمئة، فإن متوسط معدلات التضخم الشهرية المعلنة في الأشهر الأربعة الأخيرة يبلغ نحو 3.60 بالمئة، وبلغ معدل تضخم الإنتاج المحلي 1.14 بالمئة في ديسمبر 2023 مقارنة بالشهر السابق و44.22 بالمئة مقارنة بنفس الشهر من العام السابق.” Tags: التضخم النقديالتضخم في تركيا
المصدر: جريدة زمان التركية
كلمات دلالية: التضخم النقدي التضخم في تركيا
إقرأ أيضاً:
دراسة: الذكاء الاصطناعي يقع في نفس أخطاء البشر.. متحيز وواثق بنفسه
كشفت دراسة حديثة أن نموذج الذكاء الاصطناعي "تشات جي بي تي" (ChatGPT) يعاني من انحيازات معرفية مشابهة لتلك التي يعاني منها البشر، ما يؤثر بشكل مباشر على طريقة اتخاذه للقرارات.
وأظهرت الدراسة، التي نشرتها مجلة "Manufacturing Management"، أن "الذكاء الاصطناعي واثق بنفسه ومتحيز مثل البشر"، مؤكدة أن هذه الأنماط ليست عشوائية بل جزء من منهجية عمل النظام.
وأكدت الدراسة أن "تشات جي بي تي" وقع في العديد من الانحرافات الإدراكية البشرية في نحو نصف السيناريوهات التي خضع لها، منها الميل لتجنب المخاطر والثقة الزائدة وتأثير التملك سواء في سياقات نفسية أو أعمال واقعية، حسب موقع "Naukatv".
وأشارت الدراسة، التي أجراها باحثون من خمس جامعات كندية وأسترالية، إلى أنهم اختبروا نماذج GPT-3.5 وGPT-4 من شركة OpenAI، لقياس مدى انحرافها عن التفكير المنطقي، رغم ما وصفوه بـ"الاتساق المثير للإعجاب" في التفكير.
وبيّن الباحثون أن GPT-4 أظهر أداء أفضل في المسائل الحسابية والسيناريوهات المبنية على الاحتمالات، لكنه في المقابل وقع في أخطاء غير عقلانية عند مواجهة مواقف تتطلب قرارات ذات طابع شخصي أو استراتيجي، مشددين على أن GPT-4 أظهر ميلا أكبر نحو التنبؤ والسلامة مقارنة بالبشر.
ولفتت الدراسة إلى أن سلوك الذكاء الاصطناعي بقي متماسكا بغض النظر عن طبيعة الأسئلة، ما يعزز الاستنتاج بأن هذه الانحرافات ليست نتيجة أمثلة محفوظة فقط، بل تعكس منهجية داخلية في تفكير الآلة.
كما أضاف الباحثون أن GPT-4 عزز أحيانًا الأخطاء البشرية، وأظهر ميلاً أعلى لتصديق ما يُعرف بتأثير اليد الساخنة مقارنة بـGPT-3.5، في حين تمكن من تجنب بعض الانحيازات الأخرى مثل تجاهل الاحتمالات الأساسية.
وقال رئيس الفريق البحثي وأستاذ إدارة العمليات في كلية آيفي بكندا، يانغ تشين، إنه "من أجل الحصول على مساعدة دقيقة وموضوعية في اتخاذ القرار، استخدم GPT في المهام التي تثق فيها بالآلة الحاسبة. ولكن إذا تطلب القرار بيانات استراتيجية أو ذات طابع شخصي، فالإشراف البشري ضروري".
وأضاف أنه "لا ينبغي اعتبار الذكاء الاصطناعي موظفا يتخذ قرارات مصيرية. بل يجب إخضاعه للرقابة وتوجيهات أخلاقية، وإلا فإننا نخاطر بأتمتة تفكير خاطئ بدلا من تحسينه".