صحيفة: غوغل تدعم بناء 7 محطات نووية لتشغيل الذكاء الاصطناعي
تاريخ النشر: 15th, October 2024 GMT
قالت صحيفة "وول ستريت جورنال"، الاثنين، إن شركة غوغل ستدعم بناء سبعة مفاعلات نووية صغيرة في الولايات المتحدة الأميركية لتلبية احتياجات شركات التكنولوجية من الطاقة الكهربائية.
ووفقاً للصحيفة، هذه هي أول صفقة من نوعها وتهدف إلى المساعدة في سد الحاجة المتزايدة للكهرباء لتشغيل الذكاء الاصطناعي، وبدء إحياء الطاقة النووية في أميركا.
وبموجب شروط الصفقة، التزمت غوغل بشراء الطاقة المولدة من سبعة مفاعلات، سيتم بناؤها بواسطة شركة الطاقة النووية الناشئة "كايروس بور" التي قالت للصحيفة إن "الاتفاق يستهدف إضافة 500 ميغاواط من الطاقة النووية بدءاً من نهاية العقد الحالي".
وهذا هو الترتيب الأول الذي من شأنه أن يدعم البناء التجاري للمفاعلات النووية المعيارية الصغيرة في الولايات المتحدة، وفقا للصحيفة.
المصدر: الحرة
كلمات دلالية: الذکاء الاصطناعی
إقرأ أيضاً:
توظيف الذكاء الاصطناعي في البحث العلمي خطوة نحو حوكمة الابتكار
يأتي إصدار الدليل الاسترشادي لاستخدام الذكاء الاصطناعي في التعليم العالي والبحث العلمي في لحظة محورية تشهد فيها الجامعات حول العالم سباقًا محمومًا نحو دمج هذه التقنيات في أنظمتها التعليمية والبحثية. ومن ثمّ، يمثل هذا الدليل المصري علامة فارقة في مسار التحول الرقمي الأكاديمي، ليس فقط بوصفه وثيقة تنظيمية، بل كإطارٍ أخلاقي ومعرفي يوازن بين الإبداع والمسؤولية.
إذ جاء هذا الدليل ليعكس رؤية واضحة لوزارة التعليم العالي والمجلس الأعلى للجامعات نحو بناء بيئة أكاديمية ذكية، ترتكز على الاستخدام الآمن والمسؤول لتقنيات الذكاء الاصطناعي التوليدي، فهو لا يكتفي بتحديد التطبيقات الممكنة في مجالات التعليم، بل يذهب أبعد من ذلك بوضع ضوابط دقيقة لاستخدام الذكاء الاصطناعي في البحث العلمي، بدءًا من مرحلة تصميم البحث وجمع البيانات، وصولًا إلى كتابة النتائج والنشر الأكاديمي، فاستعامة الباحث بأدوات الذكاء الاصطناعي ليس أمر غير أخلاقي ولكنه بات اليوم أداة لتعزيز مهارات الباحث ودفعها إلى لتصبح في أفضل صورة ممكنه، ولكن المهم هنا هو أن يوضح الباحث المواضع التي كان الذكاء الاصطناعي شريك له بها.
أبرز ما يميز هذا الدليل أنه لا ينظر إلى الذكاء الاصطناعي كأداة محايدة، بل كقوة معرفية تحتاج إلى حوكمة رشيدة؛ فقد ألزم الباحثين بالإفصاح الكامل عن أي استخدام للأدوات التوليدية مثل: ChatGPT أو DALL·E، مؤكدًا على ضرورة المراجعة النقدية لمخرجاتها، وتحمل الباحث للمسؤولية الكاملة عن دقة وأصالة ما يُنشر وهو ما يحمي البحث العلمي من عملية الفبركة المقصودة أو غير المقصودة التي تنتج عن مخرجات الذكاء الاصطناعي غير المنقحة، أو بسبب عدم وعي الباحث بهندسة الأوامر. كما شدد على إنشاء لجان أخلاقيات للذكاء الاصطناعي داخل الجامعات، لمراجعة الأبحاث التي تستعين بهذه الأدوات وضمان توافقها مع القيم الإنسانية والأطر القانونية، وهو ما ينقلنا من نقطة الإنكار إلى الاستخدام المقنن الملزم بالمعايير.
ويؤسس الدليل كذلك لثقافة جديدة من الشفافية والمساءلة، تضمن نزاهة العملية البحثية وتحفظ مكانة الإنسان كمبدع ومفكر، لا كمستهلك لتقنيات جاهزة. فالفارق الجوهري الذي يضعه الدليل بين "المساعدة التقنية" و"الإنتاج العلمي" يذكّرنا بأن الذكاء الاصطناعي يجب أن يكون معينًا للفكر لا بديلاً عنه.
إن هذا الجهد المؤسسي المتكامل يعيد رسم علاقة الباحث بالتكنولوجيا، ويؤسس لنهج وطني في التعامل مع الذكاء الاصطناعي يقوم على الأخلاقيات والحوكمة والشفافية. إنه ليس مجرد دليل تنظيمي، بل خطوة استراتيجية تُرسّخ لمستقبل تكون فيه الجامعات المصرية نموذجًا في الاستخدام الأخلاقي والمستنير للذكاء الاصطناعي في البحث العلمي. ويحمينا من أن نتغافل أو نغض البصر عن إمكانات الذكاء الاصطناعي الهائلة في مجال البحث العلمي، أو الاستعانة به بدون الإفصاح الصريح عن هذا الأمر، وصولًا إلى التأكدي على دور الباحث العلمي والأخلاقي في مراجعة كافة مخرجات الذكاء الاصطناعي وجعله المسؤول والمحاسب على نتائجة.