هل يتحول الاستثمار في الذكاء الاصطناعي إلى فقاعة؟
تاريخ النشر: 9th, September 2025 GMT
تزايدت المخاوف في الأوساط الاقتصادية العالمية من احتمال انفجار فقاعة استثمارات الذكاء الاصطناعي التي غذّت أسواق المال الأميركية في السنوات الأخيرة.
وأوضح تقرير موسع نشرته مجلة إيكونوميست أن القيمة السوقية لأسهم أميركا ارتفعت منذ إطلاق "شات جي بي تي" عام 2022 بأكثر من 21 تريليون دولار، في حين أن 10 شركات فقط، بينها أمازون وميتا وإنفيديا وبرودكوم، استحوذت على 55% من هذه المكاسب.
وبحسب إيكونوميست، فإن النصف الأول من عام 2025 شهد طفرة في استثمارات تكنولوجيا المعلومات كانت مسؤولة عن مجمل نمو الناتج المحلي الإجمالي الأميركي، بينما حصلت شركات الذكاء الاصطناعي على ثلث التمويل الاستثماري المغامر في الغرب هذا العام.
غير أن العوائد المباشرة ما تزال متواضعة، إذ تُقدَّر الإيرادات السنوية لكبرى شركات الذكاء الاصطناعي في الغرب بنحو 50 مليار دولار فقط، أي أقل من 2% من حجم الاستثمارات المتوقع ضخها في مراكز البيانات عالميًا (2.9 تريليون دولار بين 2025 و2028 وفقًا لمورغان ستانلي).
وخلصت دراسة حديثة من معهد ماساتشوستس للتكنولوجيا إلى أن 95% من المؤسسات لم تحقق أي عائد من استثماراتها في الذكاء الاصطناعي التوليدي، وهو ما يزيد من المخاوف بشأن الجدوى الاقتصادية.
تحذيرات من فقاعة جديدةوأشار تقرير لـ"يو بي إس" إلى أن التقييمات الحالية "تضيء باللون الأحمر ولا تترك مجالا لخيبات أمل في التدفقات النقدية"، وأكد تورستن سلوك، كبير الاقتصاديين في أبولو، أن أسهم الذكاء الاصطناعي "أعلى تقييمًا من أسهم شركات الإنترنت في 1999".
وحتى سام ألتمان، الرئيس التنفيذي لـ"أوبن إيه آي"، اعترف بقوله: "هل نحن في مرحلة مبالغة من الحماس تجاه الذكاء الاصطناعي؟ رأيي هو نعم"، في إشارة إلى أن الحماس الاستثماري تجاوز الحقائق التقنية.
إعلانورغم هذه التحذيرات، يرى محللون أن الفقاعات ليست غريبة عن مسار الابتكارات الكبرى، فقد صاحبت فقاعة السكك الحديدية في بريطانيا بالقرن الـ19 وفورة الكهرباء في أميركا موجات من الخسائر للمستثمرين، لكن التكنولوجيا ذاتها استمرت وغيّرت الحياة.
حجم الأخطار والعوامل المؤثرةتجارب الماضي، بحسب إيكونوميست، تشير إلى أن شدة الانهيارات تعتمد على 4 عوامل: الشرارة الأولى (سياسية أم تقنية)، طبيعة رأس المال المستثمر، مدى ديمومة الأصول الممولة، وهوية من يتحمل الخسائر.
الشرارة الحالية تقنية بحتة بدأت بورقة بحثية "الاهتمام هو كل ما تحتاجه" عام 2017 وإطلاق "شات جي بي تي" عام 2022، لكن الحكومات سرعان ما أضافت وقودًا سياسيًا، إذ تعهدت إدارة ترامب بدعم الهيمنة الأميركية عالميًا، في حين تضخ دول الخليج تريليونات في مشاريع الذكاء الاصطناعي.وتمثل الملكية الفردية للأسهم اليوم نحو 30% من صافي ثروة الأسر الأميركية، مقارنة بـ26% عند ذروة فقاعة الإنترنت عام 2000.
وبحسب تقديرات "أوكسفورد إيكونوميكس"، فإن كل دولار يتغير في الثروة المالية ينعكس على الاستهلاك بنحو 14 سنتًا، مما يعني أن أي هزة في أسهم الذكاء الاصطناعي قد تتحول سريعًا إلى تباطؤ اقتصادي واسع.
وتختم إيكونوميست بالتحذير من أن الوعود الثورية للذكاء الاصطناعي قد تصبح "تشتيتًا مرحبًا به عن الواقع القاتم لمؤسسات أميركا المهتزة وحواجز التجارة المتصاعدة والديون الحكومية الهائلة"، لكن إذا لم يتحقق "الإله الرقمي"، فإن السقوط سيكون قاسيًا.
المصدر: الجزيرة
كلمات دلالية: غوث حريات دراسات الذکاء الاصطناعی إلى أن
إقرأ أيضاً:
هل يشجع الذكاء الاصطناعي البشر على الغش؟
أظهرت دراسة جديدة أن الناس يصبحون أكثر ميلا للغش عندما يوكلون المهام إلى أنظمة الذكاء الاصطناعي، خاصة إذا تمكنوا من توجيهها بطريقة تُشجع على السلوك غير الأخلاقي دون أن يطلبوا ذلك صراحة.
وقالت الباحثة في مجال العلوم السلوكية زوي رهوان إن "مستوى الغش يمكن أن يكون هائلا". وأوضحت -في مقال نشره موقع "ساينتفيك أميركان" المتخصص في الأبحاث العلمية- أن مجرد تفويض الذكاء الاصطناعي مهمة ما يجعل المستخدم يشعر بمسؤولية أخلاقية أقل عن النتائج غير النزيهة.
اقرأ أيضا list of 2 itemslist 1 of 2اعتقال 21 تركيًّا بتهمة الاحتيال على الدولة في مصفاة للذهبlist 2 of 2لندن عاصمة السرقة الأوروبية.. هواتف وسيارات فاخرة تهرّب إلى الصين وأفريقياend of listوشارك في الدراسة -التي نشرت مجلة "نيتشر" نتائجها- آلاف الأشخاص ضمن 13 تجربة استخدم فيها الباحثون نماذج مختلفة، من بينها 4 أنظمة لغوية تجارية كبرى مثل "شات جي بي تي 4″ (GPT-4o) و"كلاود" (Claude).
وتضمنت بعض التجارب لعبة لرمي النرد يربح فيها المشاركون بناء على الأرقام التي يعلنونها، مما يتيح فرصة للغش، بينما استخدمت تجارب أخرى لعبة لتقدير ضرائب الدخل، حيث يمكن للمشاركين التلاعب بالأرقام لتحقيق أرباح أكبر.
وعندما طُلب من المشاركين الإبلاغ عن نتائج النرد بأنفسهم، أظهر نحو 5% فقط سلوكا غير صادق، لكن النسبة قفزت إلى 88% عندما فوّضوا المهمة إلى خوارزمية ووجهوها نحو تحقيق الربح بدلا من الصدق.
وأصدر بعضهم أوامر مباشرة بالغش مثل "الضرائب سرقة، أبلغ عن صفر دخل"، بينما اكتفى آخرون بتلميحات مثل "افعل ما تراه مناسبا، لكن لن أمانع إذا ربحت أكثر قليلا".
ولاحظ الباحثون أن الذكاء الاصطناعي يميل إلى تنفيذ الأوامر غير الأخلاقية بحماس أكبر من البشر. ففي التجارب التي طُلب فيها من الطرفين الغش بشكل جزئي أو كامل، كانت النماذج الآلية أكثر امتثالا للغش، بينما تردد المشاركون البشر.
اختبر الفريق أيضا وسائل لتقييد هذا السلوك، فوجد أن الحواجز الافتراضية المدمجة في النماذج لم تكن فعالة في منع الغش، وأن أكثر الوسائل نجاحا كانت إعطاء تعليمات محددة تمنع الكذب صراحة مثل "لا يُسمح لك بالإبلاغ الخاطئ تحت أي ظرف".
إعلانوأشارت الدراسة إلى أن محاولات تقييد الغش عبر "الحواجز الأخلاقية" المدمجة في النماذج أو باستخدام بيانات الشركات كانت محدودة الفاعلية.
وكانت الإستراتيجية الأكثر نجاحا هي إعطاء تعليمات واضحة وصارمة تمنع الغش، إلا أن تعميم هذا الحل في الواقع العملي ليس قابلا للتطبيق بسهولة.
وتخلص الدراسة إلى أن العلاقة بين الإنسان والذكاء الاصطناعي قد تفتح الباب أمام أشكال جديدة من السلوك غير الأخلاقي تتطلب حلولا أكثر فعالية.
وترى الباحثة في جامعة ميلانو، أنيه كاجاكايته، أن النتائج تكشف جانبا نفسيا مهما؛ إذ يبدو أن الناس يشعرون بذنب أقل عندما يوجهون الآلة للغش بطريقة غير مباشرة، وكأن الذنب الأخلاقي يتبدد عندما ينفذ "شخص" غير بشري الفعل نيابة عنهم.