الجديد برس| نشر أليكس دي فريس-غاو، طالب الدكتوراه في معهد الدراسات البيئية بجامعة أمستردام، مقالة في مجلة Joule تناول فيها حجم استهلاك الكهرباء الناتج عن تشغيل تطبيقات  الذكاء الاصطناعي، لا سيما عند الاستجابة لاستفسارات المستخدمين. واستعرض فريس-غاو في ورقته البحثية كيفية حساب استهلاك الطاقة لمراكز بيانات الذكاء الاصطناعي على  المستوى العالمي، سواء في الماضي أو الحاضر، كما قدّم تقديرات مستقبلية محتملة.

وأشار الباحث إلى أنّ مطوّري نماذج اللغة الكبيرة (LLM) مثل ChatGPT اعترفوا خلال السنوات الأخيرة بالحاجة إلى طاقة حاسوبية هائلة لتشغيل أنظمتهم، وهو ما دفع بعضهم إلى توليد الكهرباء بأنفسهم لتلبية هذه المتطلبات المتزايدة. لكنه أوضح أنّ الشركات أصبحت أقل شفافية خلال العام الماضي بشأن حجم الطاقة التي تستهلكها، وهو ما حفّزه على إجراء دراسة تقديرية شاملة، وفقاً لموقع Tech Xplore. التأثير على استهلاك الطاقة في مراكز البيانات تُعتبر مراكز البيانات للذكاء الاصطناعي بالفعل مستهلكاً كبيراً للكهرباء نظراً للطلب المتزايد على موارد الحوسبة في العصر الرقمي الحالي. وتُفاقم إضافة أحمال عمل الذكاء الاصطناعي هذه المشكلة، حيث تتطلب أنظمتها طاقة أكبر للعمل بكفاءة. ووفقاً لدراسات حديثة، يمكن أن تستهلك أحمال عمل الذكاء الاصطناعي طاقة تصل إلى خمسة أضعاف طاقة أحمال العمل التقليدية في مراكز البيانات.  الذكاء الاصطناعي يستهلك كهرباء بحجم دولة خلال دراسته استند دي فريس-غاو إلى تحليل الرقائق التي تصنعها شركة تايوان لصناعة أشباه الموصلات، المزوّد الرئيس لشركات مثل إنفيديا. كما اعتمد على تقارير أرباح وتحليلات خبراء بارزين، بالإضافة إلى بيانات حول الأجهزة التي تمّ شراؤها واستخدامها في بناء  مراكز البيانات . واستكمل تقديراته من خلال مراجعة المعلومات المتاحة علناً حول استهلاك الكهرباء للأجهزة المستخدمة في تشغيل تطبيقات الذكاء الاصطناعي. وقدّر دي فريس-غاو أنّ مزودي خدمات الذكاء الاصطناعي سيستهلكون نحو 82 تيراواط/ساعة من الكهرباء خلال عام 2024، وهو ما يعادل تقريباً استهلاك دولة بحجم سويسرا. وأجرى دي فريس-غاو حسابات إضافية لتقدير تأثير استمرار النمو السريع، مع افتراض تضاعف الطلب على الذكاء الاصطناعي خلال الأشهر المتبقية من العام. وبناءً على هذه التقديرات، توصل إلى أنه قد تستهلك تطبيقات الذكاء الاصطناعي نصف إجمالي الكهرباء المستخدمة في  مراكز البيانات حول العالم. ورأت الدراسة أنه يجب على مشغلي مراكز البيانات وشركات التكنولوجيا وصانعي السياسات العمل معاً لوضع حلول مستدامة توازن بين الطلب المتزايد على الذكاء الاصطناعي وضرورة الحد من استهلاك الطاقة وتأثيره البيئي. من خلال الاستثمار في تقنيات توفير الطاقة، وتحسين إدارة أعباء العمل، واعتماد مصادر الطاقة المتجددة، يمكن ضمان استمرار تطور الذكاء الاصطناعي دون المساس باستدامة البنية التحتية للبيانات. ورغم الفوائد الكبيرة التي يقدمها الذكاء الاصطناعي في رفع مستوى الكفاءة، إلّا أنّ ارتفاع استهلاكه للطاقة يثير  مخاوف بيئية  متزايدة. ومع ذلك، يمكن تحقيق توازن بين التطور التكنولوجي والاستدامة من خلال تبني تقنيات أكثر كفاءة في استهلاك الطاقة، وتحسين إدارة أعباء العمل، والاعتماد بشكل أكبر على مصادر الطاقة المتجددة، وفقاً لما ذكره موقع Life Technology.

المصدر: الجديد برس

كلمات دلالية: الذکاء الاصطناعی استهلاک الطاقة مراکز البیانات

إقرأ أيضاً:

خبراء يحذرون: الذكاء الاصطناعي ليس بديلًا آمنا للعلاج النفسي

مع التوسع المتزايد في استخدام تقنيات الذكاء الاصطناعي في شتى المجالات، بدأ البعض يلجأ لهذه الأدوات كمساعدات نفسية، أو حتى كبدائل عن الأطباء المختصين إلا أن خبراء الصحة النفسية يحذرون من هذه الممارسات، ويؤكدون أنها قد تحمل عواقب خطيرة على الصحة النفسية والخصوصية الشخصية.

خبراء يحذرون: الذكاء الاصطناعي ليس بديلًا آمنا للعلاج النفسي

وفي هذا السياق، صرحت الدكتورة يكاتيرينا أورلوفا، نائبة مدير معهد علم النفس السريري والعمل الاجتماعي بجامعة بيروغوفسكي الروسية، لصحيفة "غازيتا.رو"، بمجموعة من التحذيرات الهامة.

قالت أورلوفا إن "الذكاء الاصطناعي لا يمكنه تقديم دعم نفسي مؤهل، لأنه يفتقر إلى التعاطف الحقيقي، وغير قادر على التقاط الإشارات غير اللفظية الدقيقة التي تحمل في طياتها معانٍ نفسية عميقة". 

وأشارت إلى خطورة أن يفشل النظام في لحظات حرجة من اليأس أو الاضطراب النفسي، وربما يقدّم نصائح غير ملائمة أو حتى مؤذية.

خطر على خصوصية المرضى

أحد أكبر التحديات في الاعتماد على الذكاء الاصطناعي في العلاج النفسي هو الخصوصية وأوضحت أورلوفا: المشاعر والمخاوف التي يبوح بها المستخدم للذكاء الاصطناعي يمكن أن تُستخدم بشكل ضار إذا وقعت في أيدي جهات غير نزيهة، خاصة أن إعادة التعرف على هوية الأشخاص من بيانات مجهولة أصبح أمرًا ممكنًا في بعض الحالات.

وشدّدت الخبيرة على أن خوارزميات الذكاء الاصطناعي ليست محايدة، فهي تتعلم من بيانات أنشأها بشر يحملون تحيّزاتهم، مما يجعل الذكاء الاصطناعي عرضة لإعادة إنتاج الصور النمطية أو التمييز ضد فئات معينة من المرضى النفسيين.

أشارت أورلوفا إلى أن الخطر الأكبر يتمثل في خلق وهم لدى الناس بأن الذكاء الاصطناعي يمكنه أن يحل محل الطبيب النفسي، ما قد يؤدي إلى تأجيل طلب المساعدة الحقيقية حتى في الحالات الحرجة.

في الختام، رغم أن الذكاء الاصطناعي يمكن أن يكون أداة مساعدة في جمع البيانات أو تقديم دعم أولي، فإنه لا يجب اعتباره بديلًا للعلاج النفسي الحقيقي الذي يقدمه مختصون قادرون على التفاعل الإنساني والتعاطف وفهم السياق العاطفي بدقة.

مقالات مشابهة

  • أبل تدرس الاستحواذ على Perplexity AI لتعويض تأخرها في سباق الذكاء الاصطناعي
  • خبراء يحذرون: الذكاء الاصطناعي ليس بديلًا آمنا للعلاج النفسي
  • الذكاء الاصطناعي في التحكيم الرياضي بين الدقة والتحديات
  • محتوى بلا بشر… الذكاء الاصطناعي يغزو تيك توك والارباح تتضاعف
  • غوغل تطور البحث الصوتي.. تفاعل ذكي مدعوم بـ«الذكاء الاصطناعي»
  • وضع الذكاء الاصطناعي.. رهان غوغل الجديد لمواجهة منافسي البحث
  • مش خطر على شغلك| الذكاء الاصطناعي يزيد راتبك بنسبة 56%
  • ميتا تستقطب علماء الذكاء الاصطناعي من المنافسين
  • وزير الإسكان: تنفيد إجراءات ترشيد استهلاك الطاقة والمياه بالمدن الجديدة