مراكز بيانات الذكاء الاصطناعي تستهلك الأرض
تاريخ النشر: 14th, October 2025 GMT
في زمنٍ أصبح فيه الذكاء الاصطناعي قلب التحول التكنولوجي العالمي، تتوسع مراكز البيانات بوتيرة مذهلة لتلبية الطلب المتزايد على قدرات المعالجة والتخزين، إلا أن هذه الطفرة التقنية لا تأتي دون ثمن، إذ تسببت في ضغط غير مسبوق على مصادر الطاقة والمياه، وأصبحت عبئًا بيئيًا يهدد استدامة الموارد في العديد من الدول.
فمع توسع تطبيقات الذكاء الاصطناعي التوليدي — مثل شات جي بي تي وكوبيلوت وميدجورني — زادت الحاجة إلى وحدات معالجة الرسومات (GPU) العملاقة، وهي الشرائح التي تُعد العمود الفقري في عمليات التعلم العميق، هذه الشرائح تستهلك كميات هائلة من الطاقة وتنتج حرارة كثيفة، ما أدى إلى مضاعفة استهلاك مراكز البيانات للكهرباء والمياه في غضون سنوات قليلة فقط.
سباق الرقائق والطلب الجشع على الطاقةيشير خبراء صناعة الرقائق إلى أن الذكاء الاصطناعي بات عنصرًا لا غنى عنه في مختلف الصناعات، من الرعاية الصحية إلى الأمن والتمويل، ما يدفع الشركات لبناء مراكز بيانات ضخمة قادرة على استيعاب أحمال المعالجة المتزايدة.
لكن المشكلة تبدأ من جوهر البنية التقنية نفسها. فبينما كانت وحدات المعالجة المركزية (CPU) تُصمم لمعالجة المهام بالتتابع وبكفاءة عالية في استهلاك الطاقة، فإن وحدات معالجة الرسومات (GPU) تعتمد على آلاف النوى الصغيرة التي تعمل بالتوازي، ما يجعلها أكثر قدرة على التعامل مع نماذج الذكاء الاصطناعي، ولكن على حساب استهلاك طاقة هائل.
ويؤكد فيل بور، رئيس قسم المنتجات في شركة Lumai البريطانية، أن كل جيل جديد من وحدات معالجة الرسومات يستهلك قدرًا أكبر من الكهرباء مقارنة بسابقه، مضيفًا أن كلما زادت قوة الرقاقة، زاد استهلاكها للطاقة بشكلٍ غير متناسب.
تقرير صادر عن مختبر لورانس بيركلي الوطني في عام 2024 كشف عن قفزة حادة في استهلاك الطاقة داخل مراكز البيانات الأمريكية، حيث ارتفع من 76 تيراواط/ساعة عام 2018 إلى 176 تيراواط/ساعة بحلول عام 2023. وإذا استمر النمو بالوتيرة نفسها، فقد يصل إلى 12% من إجمالي استهلاك الكهرباء في الولايات المتحدة بحلول ثلاثينيات هذا العقد.
الحرارة الزائدة: معركة التبريد المستحيلة
الحرارة الناتجة عن تشغيل مراكز البيانات ليست مجرد تحدٍ هندسي، بل أزمة طاقة قائمة بحد ذاتها. فكل رقاقة تعمل تولد حرارة يجب التخلص منها للحفاظ على كفاءتها. ووفقًا لإرشادات الجمعية الأمريكية لمهندسي التدفئة والتبريد (ASHRAE)، يجب أن تبقى درجة حرارة غرف الخوادم بين 18 و27 درجة مئوية، وهو ما يتطلب أنظمة تبريد معقدة تستهلك كميات ضخمة من الكهرباء والمياه.
تعتمد معظم المراكز على أنظمة تبريد تبخيرية تستخدم المياه لتقليل الحرارة، وهي عملية فعالة لكنها مكلفة بيئيًا. فكل لتر من الماء المتبخر لتبريد الخوادم يُفقد من دورة المياه الطبيعية، وغالبًا لا يُعاد تدويره.
بحسب بيانات مختبر بيركلي، ارتفع استهلاك المياه في مراكز البيانات الأمريكية من 21 مليار لتر عام 2014 إلى أكثر من 66 مليار لتر في 2018، وقفز إلى نحو 55 مليار لتر لمرافق الذكاء الاصطناعي وحدها عام 2023. وتشير التقديرات إلى أن هذا الرقم قد يتضاعف إلى أكثر من 120 مليار لتر بحلول عام 2028.
وتحذر دراسة صادرة عن مجلة Environmental Research Letters من أن نحو خمس هذه المراكز تقع في مناطق تعاني أصلًا من ندرة المياه، مما يجعلها منافسًا مباشرًا للسكان والزراعة على الموارد المائية.
التلوث الكيميائي والبصمة الخفية
ما يزيد الطين بلة أن المياه المستخدمة في تبريد المراكز غالبًا ما تُعالج بمواد كيميائية لمنع الصدأ ونمو البكتيريا، ما يجعلها غير صالحة لإعادة الاستخدام أو الزراعة.
ويقول خبراء من جامعة تكساس إن مراكز البيانات تسحب فعليًا مياه الشرب من الدورة المحلية وتفقدها نهائيًا، إذ تذهب أغلبها إلى محطات الصرف الصحي دون إمكانية استرجاعها.
كما لا يقتصر استنزاف المياه على أنظمة التبريد المباشرة فقط، بل يمتد إلى عمليات توليد الكهرباء نفسها. فكل ميجاواط/ساعة من الطاقة المستهلكة لتشغيل هذه المراكز يحتاج في المتوسط إلى 7 أمتار مكعبة من المياه في عمليات التبريد بالمحطات الكهربائية، ما يعني أن البصمة المائية غير المباشرة قد تكون أضعاف الاستهلاك الفعلي داخل المراكز.
البحث عن بدائل أكثر استدامة
أمام هذا الوضع، تتجه كبرى الشركات إلى حلول مبتكرة لتقليل استهلاك الطاقة والمياه.
من بين هذه الحلول التبريد السائل، الذي يُستخدم فيه نظام حلقة مغلقة تمر فيها سوائل التبريد مباشرة عبر شرائح المعالجة لتقليل الحرارة بكفاءة أعلى من التبريد الهوائي التقليدي.
تقول تقارير من مايكروسوفت إن تقنية التبريد بالموائع الدقيقة أثبتت فاعليتها في المختبر، إذ تمكنت من تقليل حرارة الشرائح بنسبة تصل إلى 65% مقارنة بالطرق التقليدية.
في البرتغال، يُعد مشروع ستارت كامبس نموذجًا فريدًا لاعتماد أنظمة تبريد تعتمد على مياه البحر، حيث يستخدم نحو 1.4 مليون متر مكعب يوميًا لتبريد المرافق، مع إعادة المياه إلى المحيط بدرجة حرارة مماثلة، دون فقدان يُذكر.
أما الحل الأكثر طموحًا فيأتي من الطاقة الحرارية الأرضية، التي بدأت شركات مثل ميتا وسيج جيوسيستمز بتجربتها لتشغيل مراكز بياناتها بقدرة تصل إلى 150 ميجاواط اعتبارًا من عام 2027، وهو ما قد يغطي 60% من الطلب المتزايد على الطاقة في العقد المقبل.
ما بعد الأجهزة: مسؤولية الشفافية والذكاء في التصميم
رغم أهمية التقنيات الجديدة، يرى الخبراء أن الحل الحقيقي يبدأ من الشفافية. فشركات الذكاء الاصطناعي مطالبة بالكشف عن استهلاكها للطاقة والمياه والانبعاثات الناتجة عن عملياتها. يقول الدكتور فيجاي جاديبالي، كبير العلماء في معهد ماساتشوستس للتكنولوجيا، إن القطاع يبني منشآت أكبر دون أن يسأل: هل نحتاج فعلًا إلى هذا الحجم من القوة الحسابية؟.
ويشير إلى أن الكثير من مراكز البيانات تعمل بكفاءة منخفضة، إذ تُهدر طاقة هائلة في عمليات غير ضرورية أو في تشغيل نماذج ذكاء اصطناعي ضخمة يمكن استبدالها بأخرى أصغر وأكثر كفاءة دون فقدان الأداء.
فبدلًا من تقطيع الهامبرجر بمنشار كهربائي، كما وصفها جاديبالي، يمكن تدريب نماذج أخف وزنًا قادرة على تحقيق النتائج نفسها بطاقة أقل، مما يحد من الضغط على الشبكات الكهربائية والمياه.
الثورة في الذكاء الاصطناعي تقود العالم نحو مستقبل رقمي واعد، لكنها في الوقت ذاته تُحدث أزمة بيئية لا يمكن تجاهلها. فمراكز البيانات التي تُغذي خوارزمياتنا اليومية باتت تستهلك كميات هائلة من الطاقة والمياه، وتفرض أعباء متزايدة على كوكب يعاني أصلًا من شح الموارد.
ومع اتساع استخدام الذكاء الاصطناعي في كل مجالات الحياة، يبدو أن السؤال لم يعد كيف نبني مراكز بيانات أكبر؟ بل كيف نجعلها أكثر ذكاءً واستدامة؟
فمن دون هذا التوازن، قد تتحول الثورة الرقمية إلى عبء بيئي يهدد مستقبل التكنولوجيا والبشر معًا.
المصدر: بوابة الوفد
كلمات دلالية: الذكاء الاصطناعي مراكز البيانات الطاقة المياه الذكاء الاصطناعي التوليدي الذکاء الاصطناعی مراکز البیانات مراکز بیانات من الطاقة ملیار لتر
إقرأ أيضاً:
هل اقتربنا من سيناريوهات انفجار الذكاء الاصطناعي؟
انتقل الذكاء الاصطناعي من مجرد أداة تُستخدم في الترجمة وإعداد النصوص وتحليل البيانات إلى قوة صاعدة تفرض نفسها في برامج الهندسة والصناعة والطب وحتى الإعلام والسياسة والأمن.
ولم يعد النقاش الحالي يتناول قضايا الذكاء الاصطناعي وقدرته على أداء المهام التقليدية من ترجمة وتحليل للبيانات وتلخيص للنصوص، وإنما أصبح التركيز يدور حول الفرضيات التي تقول إن هذا المجال سيدخل في مرحلة "الانفجار الذاتي" أي إعادة برمجة ذاته عبر تطوير خوارزميات جديدة من دون الاعتماد على المبرمج البشري.
اقرأ أيضا list of 2 itemslist 1 of 2لماذا تدعم دول جزر المحيط الهادي إسرائيل؟list 2 of 2أبرز ما نشرته مراكز الدراسات والأبحاث في أسبوعend of listوبشأن الأبحاث والتقارير التي تناقش فرضية الذكاء الاصطناعي ودخوله قريبا في مرحلة جديدة تتيح له أن يصبح كيانا مستقلا قادرا على إعادة تصميم ذاته، نشر موقع مركز الجزيرة للدراسات ورقة بحثية تحت عنوان "الذكاء الاصطناعي وإعادة البرمجة الذاتية: سيناريوهات الانفجار الذكي".
الورقة البحثية -التي أعدها الدكتور خالد وليد محمود رئيس قسم الإعلام والاتصال في معهد الدوحة للدراسات العليا- ناقشت جذور فرضية الانفجار الذكي للذكاء الاصطناعي، ومن يتحكم في هذه القوة، وإشكالية الاستقلال والاعتماد على الذات.
في أبريل/نيسان 2025، نشر مشروع "مستقبل الذكاء الاصطناعي" تقريرا رسم صورة مذهلة عن الذكاء الاصطناعي مفاده أنه خلال عامين سيكون قادرا على القيام بدور المهندس، إذ يمكن أن يعتمد على ذاته في إعادة تصميم بنيته الداخلية.
وتفاعلت وسائل الإعلام العالمية مع هذا التقرير، حيث أشارت مجلة " ذا نيويوركر" (the new Yorker) إلى مسارين متباينين حول مستقبل الذكاء الاصطناعي:
الأول: يرجح أن يكون له مستقبل يفوق الإنسان في جميع المجالات. أما الاحتمال الثاني: فيفترض أن التحول لن يكون سريعا، لاعتماده على محدودية الموارد وتأجيل الحوكمة. إعلانوفي الوقت الذي وصفت فيه بعض وسائل الإعلام العالمية هذه التقارير والأبحاث بأنها تبقى في سياق الفرضيات المحملة بالجدلية، فإنها دعت إلى صياغة سياسات استباقية للتعامل مع احتمالية التطور الذي يفوق التدخل البشري.
ويعود جذور مفهوم "الانفجار الذكي" إلى عام 1965، حين نشر عالم الرياضيات البريطاني آي. جي. غود (I.j. good) مقالا بعنوان: "تخمينات حول أول آلة فائقة الذكاء"، تنبّأ فيه بأن أول آلة فائقة الذكاء ستتمكن من تحسين تصميمها الذاتي باستمرار حتى تصل إلى مرحلة يصعب على البشر اللحاق بها.
وقد تبين أن هذه الرؤية التي بدت حينها أقرب إلى الخيال العلمي أو التأمل الفلسفي، تحولت لاحقا إلى فرضية مركزية في أدبيات الذكاء الاصطناعي والفلسفة العقلية، وخرجت من نطاق النقاشات الأكاديمية إلى مجالات التطبيق والممارسة الفعلية.
وبعد فكرة العالم البريطاني، جاء الفيلسوف السويدي، نيك بوستروم (Nick Bostrom)، ليُطوّرها بشكل منهجي في كتابه: "الذكاء الفائق: المسارات، المخاطر، الإستراتيجيات"، حيث وضع فيه سيناريوهات مفصلة للانفجار الذكي، محذرا من أن لحظة الوصول إلى ذكاء فائق قد تكون أسوأ ما تواجهه البشرية.
من جانب آخر، وجّه باحثون -مثل غاري ماركوس (Gary Marcus) وأرفيند نارايانان (Arvind Narayanan)- انتقادات حادة لفكرة الانفجار الذكي، معتبرين أن الحديث عن قفزة مفاجئة نحو ذكاء فائق، يتجاهل القيود التقنية والمادية الصارمة التي تحكم تطور الخوارزميات.
ويجادل هذا الفريق بأن الذكاء الاصطناعي، مهما بلغت قدراته، سيظل قائما على بيانات ومعالجات مادية، وأنه لا يمكن فصله عن القيود البشرية المتعلقة بالطاقة والموارد والتكلفة.
وعلى الصعيد العملي، أصبح "الذكاء الفائق" جزءا من إستراتيجيات الحكومات الكبرى، فالولايات المتحدة والصين والاتحاد الأوروبي يتعاملون مع هذه الأفكار بوصفها سيناريو واقعيا لا محالة ينبغي الاستعداد له، وليس قصة من الخيال العلمي أو الأفكار الفلسفية.
مشكلة القدرة على الاستقلاليةورغم الإشارات القوية التي تصب في اتجاه فرضية الانفجار الذاتي للذكاء الاصطناعي، فإن الوقت الراهن يكشف أن الحاجة ما زالت قائمة للاعتماد على البشر، وأن الأنظمة الذكية لا تزال غير قادرة على الاعتماد على ذاتها.
فالنماذج الأكثر تقدما في الذكاء الاصطناعي اليوم مثل "تشات جي بي تي" (ChatGPT)، و"جيميني" (Gemini)، و"كلود" (Claude) كلها تعمل ضمن إطار بنية تحتية بشرية معقدة وضخمة إلى حدّ مذهل، إذ تحتاج إلى ملايين من المعالجات الفائقة موزعة على مراكز بيانات عالمية، تستهلك وحدها طاقة كهربائية تعادل استهلاك مدن صغيرة أو حتى متوسطة الحجم.
وبالإضافة إلى ذلك تعتمد هذه الأنظمة على شبكات إنترنت عالية الكفاءة، وأنظمة تبريد هائلة للحفاظ على استقرار الأجهزة والوسائل اللوجيستية، وسلسلة طويلة من الخبراء والمهندسين الذين يشرفون على كل تفصيل، ويقومون بالمراقبة والتنظيم والتدخل.
ورغم كل ذلك فإن الباحثين يقولون إن المؤشرات تثبت وجود ملامح قدرات على إعادة البرمجة الذاتية، حيث ظهرت برامج تستطيع تعديل بنيتها الداخلية وتوليد خوارزميات وأكواد جديدة لتحسين الأداء.
إعلانوبناء على ذلك يمكن القول إن العالم يقف عند مفارقة لافتة للانتباه، وهي الأنظمة الحالية قوية وأصبحت تفوق توقعات العقد الماضي، بيد أنها في الوقت ذاته لا تزال هشة وتعتمد كليا على البشر.
من يمتلك الذكاء الفائق؟وانطلاقا من فرضية أن نظاما قادرا على تطوير نفسه قد ظهر بالفعل، فإن الإشكال الجيوسياسي سيزيد من التعقيد المتعلق بالذكاء الاصطناعي الخارق.
فمن سيملك التحكم في هذا النظام؟ هل تكون الولايات المتحدة عبر شبكات وادي السيليكون التي تسيطر على البنية التحتية للذكاء الاصطناعي وتملك رأس المال الثقافي والتمويلي؟ أم ستكون الصين التي تراهن على الدمج العميق بين الدولة والجيش والشركات، وتستثمر مواردها الهائلة لتصبح صاحبة الريادة؟
أوروبا بدورها اتخذت مسارا تشريعيا عام 2014، عبر قانون الاتحاد الأوروبي للذكاء الاصطناعي، الذي وضع قواعد صارمة للشفافية والأمان والنزاهة.
وعلى مستوى الشرق الأوسط، فقد ظهرت إستراتيجيات السيادة الرقمية التي تبنتها دولتا قطر والإمارات إدراكا بأن من يمتلك البيات يكون له حضور في المشهد السياسي والعسكري في المستقبل.
الأبعاد الأخلاقية وسيناريوهات المستقبلوفي سياق المخاوف، تطرح الأبعاد الأخلاقية لمسألة الذكاء الخارق، لأنه قد يتحول إلى صناديق سوداء يجهل البشر ما يجري بداخلها، فثورة الإنترنت التي غيرت مفهوم الزمان والمكان، لم تسلب الإنسان عقله ولم تغير دوره كفاعل معرفي، أما الذكاء الاصطناعي فإنه بهذه الفرضيات والتنبؤات يتجه إلى أن يحل محل العقل.
وفي هذا السياق الذي يشكل مخاطر وقيودا على عقل الإنسان، بدأت الأمم المتحدة في مناقشة إمكانية صياغة "معاهدة للذكاء الاصطناعي" شبيهة بمعاهدة حظر انتشار الأسلحة النووية على أساس أن المخاطر لا تقتصر على دولة أو شركة واحدة بل تمس الإنسانية كلها.
وحول المستقبل، هنالك احتمالات أهمها:
السيناريو التفاؤلي: الذي يقول إن الذكاء الاصطناعي سيكون شريكا حقيقيا وليس مجرد أداة مساعدة.
أما السيناريو التشاؤمي: فيرى أنه سيفوق الإنسان وينافسه في سوق العمل ويقضي على ملايين الوظائف.
وتفرض الثورة الحالية على البشرية أن تكون أكثر جرأة في التفكير لمواجهة الذكاء الاصطناعي، لأن التجارب التاريخية تقول إن التحولات الكبرى لا تنتظر البشر حتى يستعدوا لها.