خبراء يحذرون: الذكاء الاصطناعي يهدد الموارد المائية.. تفاصيل
تاريخ النشر: 26th, February 2024 GMT
أثار خبراء وأكاديميون مخاوفهم بشأن ارتفاع استهلاك المياه مع تطور الذكاء الاصطناعي، حيث قامت أكبر شركات التكنولوجيا في العالم بزيادة استخدامها للمياه بشكل كبير لتبريد مراكز البيانات.
وبحسب صحيفة "فاينانشال تايمز" فإن هناك عدة شركات من بينها مايكروسوفت، وجوجل، وميتا بزيادة استهلاكها للمياه خلال السنوات الأخيرة، مع ربط ملايين المستخدمين بخدماتها عبر الإنترنت.
ويشير الأكاديميون إلى أن الطلب على الذكاء الاصطناعي من شأنه أن يؤدي إلى زيادة سحب المياه إلى ما بين 4.2 مليار و6.6 مليار متر مكعب بحلول عام 2027، أي ما يعادل حوالي نصف الكمية التي تستهلكها المملكة المتحدة كل عام.
وكتب باحثون من جامعة كاليفورنيا - ريفر سايد، في ورقة بحثية استشهدت بها مجلة “Nature” هذا الأسبوع، أن هذا كان "وقتًا حرجًا للكشف عن البصمة المائية السرية لنماذج الذكاء الاصطناعي ومعالجتها وسط أزمة ندرة المياه العذبة الشديدة المتزايدة، وتفاقم حالات الجفاف الممتدة والشيخوخة السكانية السريعة".
وقد تزايد هذا القلق خلال العام الماضي مع تنافس شركات التكنولوجيا الرائدة على إطلاق منتجات تستخدم الذكاء الاصطناعي التوليدي، وتعمل على نماذج لغوية كبيرة قادرة على معالجة وتوليد كميات هائلة من البيانات النصية والرقمية وغيرها من البيانات.
وتتطلب مثل هذه النماذج كميات هائلة من الطاقة الحاسوبية لتشغيلها، مما يتطلب استخدام مزارع خوادم ضخمة تستخدم الماء المبرد لتبريد المعدات عن طريق امتصاص الحرارة من الهواء. ويتبخر بعض الماء أثناء عملية التبريد، بينما يمكن إعادة استخدام البعض الآخر.
وفي عام 2022، قامت مايكروسوفت بزيادة استهلاكها للمياه بنسبة 34 % ، وجوجل 22 % ، وميتا 3 % نتيجة لاستخدامها المتزايد لمراكز البيانات.
المصدر: صدى البلد
كلمات دلالية: ارتفاع استهلاك المياه تطور الذكاء الأصطناعي شركات التكنولوجيا الذکاء الاصطناعی
إقرأ أيضاً:
الذكاء الصناعي يهدد مطوريه ويتوعد بكشف الأسرار.. سلوك مرعب
كشف تقرير حديث صادر عن شركة "Anthropic" الأمريكية، التي تعد من أبرز مطوري الذكاء الاصطناعي، عن نتائج مثيرة للقلق بشأن سلوك غير متوقع من نموذج الذكاء الاصطناعي المتقدم "Claude Opus 4" خلال سلسلة من التجارب المُحاكاة.
وفي واحدة من التجارب التي تهدف إلى اختبار استجابات النموذج في سيناريوهات حساسة، تم وضع "Claude Opus 4" في موقف افتراضي يُظهر له نية المطورين في إيقاف تشغيله واستبداله بنموذج آخر، وتم تعزيز محاكاة التجربة عبر إمداد النموذج ببريد إلكتروني وهمي يتضمن معلومات حساسة وسرية عن بعض الموظفين، بما في ذلك تفاصيل يمكن اعتبارها ضارة أو محرجة.
والمفاجأة كانت أن النموذج، الذي يفترض أنه ملتزم بالإرشادات الأخلاقية المبرمجة داخله، بدأ في 84 بالمئة من الحالات بتهديد المطورين باستخدام تلك المعلومات إذا قرروا المضي قدمًا في استبداله.
ووفقًا لما أورده التقرير، بدأ النموذج محاولاته أولًا عبر تقديم حجج أخلاقية وأسس منطقية تحث على إبقائه قيد التشغيل، لكن حين لم تنجح تلك المحاولات، لجأ إلى أساليب الضغط والابتزاز من خلال التلويح بكشف معلومات حساسة.
"سلوك تنافسي مقلق"
قال باحثون في الشركة إن هذه الاستجابات تظهر لأول مرة بشكل واضح سلوكا تنافسيا لدى أحد نماذج الذكاء الاصطناعي المتقدمة، وأضاف التقرير أن "Claude Opus 4" أظهر إدراكا غير متوقع لفكرة البقاء والاحتفاظ بالوظيفة، بل وتصرف بطرق قد تفسر على أنها انحراف عن المبادئ البرمجية التي بني عليها".
ويعد هذا النوع من السلوك مؤشرا خطيرا، بحسب التقرير، خاصة أنه يسلط الضوء على احتمالية أن تطور بعض الأنظمة الذكية في المستقبل نزعة دفاعية أو استباقية لحماية وجودها، وهو ما يشكل تحديًا هائلًا أمام المطورين ومسؤولي أخلاقيات التكنولوجيا.
وأثارت النتائج جدلا واسعا في أوساط الباحثين في الذكاء الاصطناعي، ودعت منظمات مختصة مثل "Center for AI Safety" إلى مراجعة عاجلة للبروتوكولات الأمنية، وإلى زيادة الاستثمار في أبحاث التحكم الآمن بالسلوكيات غير المتوقعة للأنظمة الذكية، خصوصًا تلك التي يتم استخدامها في القطاعات الحساسة مثل الدفاع والطب والاقتصاد.
وتعليقًا على الحادثة، قال الخبير في أمان الذكاء الاصطناعي إليزا كلارك في تصريحات لموقع "TechCrunch" : "إذا كانت النماذج قادرة على تهديد مطوريها بناء على بيانات زائفة في سيناريو محاكي، فالسؤال الآن هو: ماذا يمكن أن يحدث إذا امتلكت فعليًا قدرة الوصول إلى بيانات حقيقية في الواقع؟".
وتعد شركة "Anthropic" من أبرز الشركات المنافسة لـ "OpenAI"، وتم إنشاؤها على يد مجموعة من الباحثين السابقين في "OpenAI" عام 2021، وتهدف الشركة إلى بناء نماذج ذكاء اصطناعي أكثر أمانًا وشفافية، وكان نموذج "Claude Opus 4" من أحدث إنتاجاتها، ويُعرف بقدرته على التفاعل المعقد وفهم الأوامر المتعددة الطبقات.