دعوة لإلزام شركات التكنولوجيا بالإبلاغ عن استهلاكها للطاقة في مراكز البيانات
تاريخ النشر: 8th, February 2025 GMT
اقترح عدد من الخبراء إلزام شركات التكنولوجيا بموجب القانون بالإبلاغ عن استهلاك الطاقة والمياه لمراكز البيانات الخاصة بها، حيث أن الطفرة في الذكاء الاصطناعي تخاطر بالتسبب في أضرار لا يمكن إصلاحها للبيئة.
وذكر تقرير صادر عن المركز الوطني للسياسة الهندسية (NEPC) أن الذكاء الاصطناعي ينمو بمعدل لا مثيل له من قبل أنظمة الطاقة الأخرى، مما يؤدي إلى زيادة المخاطر البيئية، بحسب صحيفة "الغارديان".
ودعا التقرير حكومة المملكة المتحدة إلى إلزام شركات التكنولوجيا بتقديم تقارير إلزامية عن استهلاكها للطاقة والمياه وانبعاثات الكربون من أجل تحديد الشروط التي يتم بموجبها تصميم مراكز البيانات لاستخدام موارد حيوية أقل.
قال البروفيسور توم رودين، نائب رئيس قسم الأبحاث وتبادل المعرفة في جامعة نوتنغهام، والذي كان عضوا في مجموعة عمل NEPC التي قدمت الدراسة: "في السنوات الأخيرة، كان التقدم في أنظمة وخدمات الذكاء الاصطناعي مدفوعا إلى حد كبير بسباق الحجم والنطاق، مما يتطلب كميات متزايدة من القوة الحاسوبية".
وأضاف رودين أنه "نتيجة لذلك، تنمو أنظمة وخدمات الذكاء الاصطناعي بمعدل لا مثيل له من قبل أنظمة أخرى عالية الاستهلاك للطاقة - وبشكل عام دون مراعاة كبيرة لكفاءة الموارد. هذا اتجاه خطير، ونحن نواجه خطرا حقيقيا يتمثل في أن تطويرنا ونشرنا واستخدامنا للذكاء الاصطناعي قد يلحق ضررا لا يمكن إصلاحه بالبيئة".
أبلغت شركتا غوغل ومايكروسوفت عن زيادات سنوية في استهلاك المياه في مراكز البيانات منذ عام 2020، ويأتي العديد من عمليات سحب المياه هذه من مصادر مياه الشرب.
وفي تقريرها السنوي للاستدامة البيئية في عام 2023، قالت مايكروسوفت إنها استهلكت 6.4 مليون متر مكعب من المياه في عام 2022، في المقام الأول لمراكز البيانات السحابية الخاصة بها - بزيادة قدرها 34 بالمئة عن العام السابق.
قالت غوغل إن مراكز البيانات الخاصة بها استهلكت 19.5 مليون متر مكعب من المياه في عام 2022، بزيادة 20 بالمئة.
لا توجد بيانات موثوقة عن كمية الموارد التي تستخدمها مراكز البيانات. وذكر التقرير أنه من أجل وضع سياسة فعالة للحد من استهلاكها للطاقة، تحتاج الحكومة إلى جمع المعلومات على نطاق واسع.
وقال رودين إنه من الضروري مراقبة التكلفة البيئية للذكاء الاصطناعي، مضيفا أنه "بمجرد أن نتمكن من الوصول إلى بيانات جديرة بالثقة تتعلق بتأثيراتها البيئية، والشعور بالمكان الذي نحتاج فيه إلى هذه الخدمات والأنظمة، يمكننا أن نبدأ في استهداف الكفاءة بشكل فعال في التطوير والنشر والاستخدام، والتخطيط لمستقبل مستدام للذكاء الاصطناعي في المملكة المتحدة".
قدم التقرير توصيات لصناع السياسات بما في ذلك الحاجة إلى: توسيع نطاق الإبلاغ البيئي الإلزامي، وتقديم معلومات حول التأثيرات البيئية لأنظمة الذكاء الاصطناعي، وتحديد متطلبات الاستدامة البيئية لمراكز البيانات، بالإضافة إلى إعادة النظر في ممارسات جمع البيانات ونقلها وتخزينها وإدارتها.
وقال سارفابالي (جوبال) رامشورن، أستاذ الذكاء الاصطناعي في جامعة ساوثهامبتون والرئيس التنفيذي لشركة Responsible AI UK والذي كان أيضا عضوا في مجموعة عمل NEPC: "قد زاد استخدام الذكاء الاصطناعي في العامين الماضيين، مما ساعد في أداء المهام اليومية وتعزيز الإنتاجية والابتكار. ومع ذلك، فإن الكثيرين لا يدركون التكاليف الكبيرة والتأثيرات البيئية".
وأكد أنه "يجب أن يكون مزودو الذكاء الاصطناعي شفافين بشأن هذه التأثيرات. إذا لم نتمكن من قياسها، فلن نتمكن من إدارتها، ولا أن نضمن الفوائد للجميع، وستساعد توصيات هذا التقرير في المناقشات الوطنية حول استدامة أنظمة الذكاء الاصطناعي والمقايضات الناتجة".
المصدر: عربي21
كلمات دلالية: سياسة اقتصاد رياضة مقالات صحافة أفكار عالم الفن تكنولوجيا صحة تفاعلي سياسة اقتصاد رياضة مقالات صحافة أفكار عالم الفن تكنولوجيا صحة تفاعلي اقتصاد اقتصاد دولي اقتصاد عربي اقتصاد دولي الطاقة الذكاء الاصطناعي المياه الكهرباء المياه الطاقة الذكاء الاصطناعي شركات التقنية المزيد في اقتصاد اقتصاد دولي اقتصاد دولي اقتصاد دولي اقتصاد دولي اقتصاد دولي اقتصاد دولي سياسة سياسة اقتصاد اقتصاد اقتصاد اقتصاد اقتصاد اقتصاد سياسة اقتصاد رياضة صحافة أفكار عالم الفن تكنولوجيا صحة الذکاء الاصطناعی مراکز البیانات
إقرأ أيضاً:
خبراء يحذرون: الذكاء الاصطناعي ليس بديلًا آمنا للعلاج النفسي
مع التوسع المتزايد في استخدام تقنيات الذكاء الاصطناعي في شتى المجالات، بدأ البعض يلجأ لهذه الأدوات كمساعدات نفسية، أو حتى كبدائل عن الأطباء المختصين إلا أن خبراء الصحة النفسية يحذرون من هذه الممارسات، ويؤكدون أنها قد تحمل عواقب خطيرة على الصحة النفسية والخصوصية الشخصية.
خبراء يحذرون: الذكاء الاصطناعي ليس بديلًا آمنا للعلاج النفسيوفي هذا السياق، صرحت الدكتورة يكاتيرينا أورلوفا، نائبة مدير معهد علم النفس السريري والعمل الاجتماعي بجامعة بيروغوفسكي الروسية، لصحيفة "غازيتا.رو"، بمجموعة من التحذيرات الهامة.
قالت أورلوفا إن "الذكاء الاصطناعي لا يمكنه تقديم دعم نفسي مؤهل، لأنه يفتقر إلى التعاطف الحقيقي، وغير قادر على التقاط الإشارات غير اللفظية الدقيقة التي تحمل في طياتها معانٍ نفسية عميقة".
وأشارت إلى خطورة أن يفشل النظام في لحظات حرجة من اليأس أو الاضطراب النفسي، وربما يقدّم نصائح غير ملائمة أو حتى مؤذية.
خطر على خصوصية المرضىأحد أكبر التحديات في الاعتماد على الذكاء الاصطناعي في العلاج النفسي هو الخصوصية وأوضحت أورلوفا: المشاعر والمخاوف التي يبوح بها المستخدم للذكاء الاصطناعي يمكن أن تُستخدم بشكل ضار إذا وقعت في أيدي جهات غير نزيهة، خاصة أن إعادة التعرف على هوية الأشخاص من بيانات مجهولة أصبح أمرًا ممكنًا في بعض الحالات.
وشدّدت الخبيرة على أن خوارزميات الذكاء الاصطناعي ليست محايدة، فهي تتعلم من بيانات أنشأها بشر يحملون تحيّزاتهم، مما يجعل الذكاء الاصطناعي عرضة لإعادة إنتاج الصور النمطية أو التمييز ضد فئات معينة من المرضى النفسيين.
أشارت أورلوفا إلى أن الخطر الأكبر يتمثل في خلق وهم لدى الناس بأن الذكاء الاصطناعي يمكنه أن يحل محل الطبيب النفسي، ما قد يؤدي إلى تأجيل طلب المساعدة الحقيقية حتى في الحالات الحرجة.
في الختام، رغم أن الذكاء الاصطناعي يمكن أن يكون أداة مساعدة في جمع البيانات أو تقديم دعم أولي، فإنه لا يجب اعتباره بديلًا للعلاج النفسي الحقيقي الذي يقدمه مختصون قادرون على التفاعل الإنساني والتعاطف وفهم السياق العاطفي بدقة.