«الذكاء الاصطناعي» يتنبأ بوقوع «عواصف شمسية» عنيفة
تاريخ النشر: 2nd, February 2025 GMT
أشارت دراسة جديدة إلى أن “الذكاء الاصطناعي”، تنبأ بوقوع عواصف شمسية عنيفة.
وأشارت الدراسة، “إلى أنه ثمة خوارزميات تم تدريبها على عقود من النشاط الشمسي تمكنت من رصد جميع علامات النشاط المتزايد مما قد يساعد في التنبؤ بالانفجارات الشمسية المستقبلية”.
وبحسب موقع “ساينس الريتsciencealert”، “فإن الانبعاثات الكتلية الإكليلية (CMEs) هي انفجارات هائلة للبلازما تنطلق من إكليل الشمس إلى الفضاء بسبب اضطرابات في المجال المغناطيسي الشمسي، وغالباً ما ترتبط هذه الأحداث الانفجارية بالتوهجات الشمسية وتحدث عندما تعيد خطوط المجال المغناطيسي تنظيم نفسها فجأة، مما يؤدي إلى إطلاق كميات هائلة من الطاقة”.
وبحسب الدراسة، “شهدت الشمس انبعاثاً كتلياً إكليلياً ضخماً في فبراير/ شباط 2000، حيث أطلقت فقاعة هائلة من البلازما المغناطيسية إلى الفضاء، وعند وصولها إلى الأرض، تتفاعل هذه الانبعاثات مع الغلاف المغناطيسي للأرض، مما قد يتسبب في عواصف جيومغناطيسية تعطل الاتصالات الفضائية وأنظمة تحديد المواقع العالمية (GPS) وشبكات الطاقة، كما يمكن أن تؤدي إلى نشاط شفقي مذهل، يُعرف باسم الأضواء القطبية”.
ووفق الدراسة، “كان التنبؤ الدقيق بهذه الأحداث وتأثيراتها على الغلاف المغناطيسي للأرض أحد التحديات التي تواجه علماء الفلك، وفي دراسة أجراها فريق من علماء الفلك بقيادة سابرينا غواستافينو من جامعة جنوة، تم تطبيق الذكاء الاصطناعي لمواجهة هذا التحدي، واستخدم الفريق التكنولوجيا الحديثة للتنبؤ بالأحداث المرتبطة بالعاصفة الشمسية التي حدثت في مايو/ أيار 2024، بما في ذلك التوهجات من المنطقة المسماة 13644 والانبعاثات الكتلية الإكليلية”.
وبحسب الدراسة الجديدة، “تمكن الفريق، باستخدام الذكاء الاصطناعي، من تحليل كميات هائلة من البيانات السابقة للكشف عن أنماط معقدة كان من الصعب اكتشافها بالطرق التقليدية”.
هذا “وكانت العاصفة الشمسية عام 2024 فرصة فريدة لاختبار قدرة “الذكاء الاصطناعي” على التنبؤ بالنشاط الشمسي، حيث كان الهدف الرئيسي هو التنبؤ بحدوث التوهجات الشمسية، وتطورها مع مرور الوقت، بالإضافة إلى إنتاج الانبعاثات الكتلية الإكليلية، وفي النهاية التنبؤ بالعواصف الجيومغناطيسية على الأرض، وأظهرت النتائج دقة غير مسبوقة في التنبؤات”.
المصدر: عين ليبيا
كلمات دلالية: الذكاء الاصطناعي عواصف شمسية الذکاء الاصطناعی
إقرأ أيضاً:
خلال محاكمة.. الذكاء الاصطناعي يحيل إلى مرجع غير موجود
في محاكمة بين "أنثروبيك" للذكاء الاصطناعي وأصحاب حقوق ملكية فكرية، تضمنت مذكرة قضائية للدفاع عن الشركة الناشئة إشارة إلى مرجع وهمي لا وجود له.
بدأ الذكاء الاصطناعي يغير تدريجيا طريقة العمل في المجال القضائي. فبينما تسهّل هذه الأداة البحث في السوابق القضائية، يجب أن تخضع مخرجاتها للمراقبة بسبب قدرتها على الهلوسة.
وقد برز هذا مؤخرًا في محاكمة بين شركة "أنثروبيك" للذكاء الاصطناعي وشركات موسيقية. في أكتوبر 2023، طلبت شركات موسيقى من القضاة الاتحاديين في ولاية كاليفورنيا حظر استخدام دليلها الموسيقي لتدريب نماذج الذكاء الاصطناعي الخاصة بشركة "أنثروبيك".
رفض القضاة هذا الطلب في مارس 2025، معتبرين أنه لا يوجد دليل على ضرر لا يمكن إصلاحه. بعد ذلك، رفع المدعون دعوى قضائية أخرى تتعلق بانتهاك حقوق الطبع والنشر. تكمن إحدى نقاط الخلاف الرئيسية في هذه القضية في فحص حجم العينة المتفاعلة مع أداة "كلود" للذكاء الاصطناعي التابعة لشركة "أنثروبيك"، لتحديد وتيرة إعادة إنتاج الذكاء الاصطناعي لكلمات الأغاني المحمية أو توليدها.
مرجع وهمي
قدمت أوليفيا تشين، عالمة البيانات في شركة "أنثروبيك"، مذكرة إلى المحكمة تُجادل فيها بأن عينة من مليون تفاعل مستخدم كافية لتقديم "معدل انتشار معقول" لظاهرة نادرة: مستخدمو الإنترنت يبحثون عن كلمات الأغاني. وقدّرت أن هذه الحالة لا تُمثل سوى 0.01% من التفاعلات. وفي شهادتها، استشهدت بمقال أكاديمي نُشر في مجلة "الإحصائي الأميركي" تبيّن لاحقا أنه غير موجود.
طلب المدعون من المحكمة استدعاء أوليفيا تشين ورفض أقوالها بسبب الإحالة إلى هذا المراجع الزائف. ومع ذلك، منحت المحكمة شركة "أنثروبيك" وقتًا للتحقيق. وقد وصف محامي الشركة الناشئة الحادثة بأنها "خطأ بسيط في الاستشهاد"، وأقرّ بأن أداة "كلود" للذكاء الاصطناعي استُخدمت "لتنسيق ثلاثة مراجع ببليوغرافية على الأقل بشكل صحيح". وفي هذا السياق، اخترع الذكاء الاصطناعي مقالاً وهمياً، مع مؤلفين خاطئين لم يعملوا معًا قط.
تجنب أخطاء الذكاء الاصطناعي
تُسلّط هذه الحادثة الضوء على الانتشار المُقلق للأخطاء الناتجة عن الذكاء الاصطناعي في الإجراءات القانونية، وهي ظاهرة متنامية تُعرّض الشركات لمخاطر جسيمة، لا سيما عندما يعتمد محاموها على هذه الأدوات لجمع المعلومات وصياغة الوثائق القانونية.
يقول برايان جاكسون، مدير الأبحاث في مجموعة Info-Tech Research Group "خلق استخدام الذكاء الاصطناعي نوعًا من الكسل الذي أصبح مصدر قلق في المجال القانوني". ويضيف: "لا ينبغي استخدام أدوات الذكاء الاصطناعي كحل شامل لإنتاج الوثائق اللازمة للملفات القضائية".