فقاعة الذكاء الاصطناعي وحساباتها الواهية
تاريخ النشر: 19th, November 2025 GMT
عندما خصصت شركة OpenAI مؤخرا مبلغ 1.4 تريليون دولار لتأمين قدرة الحوسبة في المستقبل، لم يكن ذلك سوى أحدث مؤشر على الوفرة الطائشة في عام 2025.
وفقًا لبعض التقديرات، جاء نمو الناتج المحلي الإجمالي الأمريكي في النصف الأول من هذا العام بالكامل تقريبا من مراكز البيانات، الأمر الذي أدى إلى إطلاق سيل من التعليقات حول موعد انفجار الفقاعة وما قد يخلفه هذا الانفجار من عواقب.
في حين انتهت حفلة الدوت كوم في أواخر التسعينيات من القرن الماضي بتأثيرات بغيضة في Wall Street (مقر مؤسسات المال والأعمال)، كان العمل جاريا في Main Street (مقر التجارة والبيع والشراء) على الحفاظ على ما هو مهم: البنية الأساسية. فارتفعت الإنتاجية، ولا يزال الأساس الذي أُرسيّ خلال سنوات الازدهار عاملا حتى اليوم.
كان تعهد الرئيس الأمريكي بِل كلينتون ببناء «جسر إلى القرن الحادي والعشرين» أحد تلك الوعود النادرة التي قطعها خلال حملته الانتخابية والتي جرى الوفاء بها بالفعل.
الواقع أن استثمارات الذكاء الاصطناعي اليوم من الممكن أن تؤتي ثمارها كما فعلت استثمارات الإنترنت.
ومع ذلك، تبدو المكاسب في الوقت الحالي أكثر ضآلة، والجوانب السلبية الكلية أكبر، مما كانت عليه في حالة فقاعة الدوت كوم. لنتأمل هنا الفوائد المحتملة. في أواخر التسعينيات، ظهرت مكاسب الإنترنت بينما كانت الفقاعة لا تزال تتضخم: فقد بلغ متوسط نمو إنتاجية العمل في الولايات المتحدة نحو 2.8% من عام 1995 إلى عام 2004، أي ضعف الوتيرة في العقدين السابقين تقريبا، قبل أن يتلاشى في منتصف العقد الأول من القرن الحادي والعشرين.
ويمكنك أن ترى المكاسب في الحسابات القومية حتى عندما كان موقع Pets.com يشتري إعلانات Super Bowl المشؤومة. هذه المرة، انتعش نمو إنتاجية العمالة في الولايات المتحدة بعد عقدين من التباطؤ ـ حيث بلغ حوالي 2.7% العام الماضي ـ ولكن من السابق للأوان أن نقول إن الذكاء الاصطناعي هو السبب.
الواقع أن تبني الذكاء الاصطناعي بدأ يتراجع، حيث أظهر مسح أجراه مكتب الإحصاء في الولايات المتحدة مؤخرًا انخفاضًا في استخدام الذكاء الاصطناعي بين الشركات الضخمة.
إذا كان الارتفاع الأخير في الإنتاجية راجعًا في الغالب إلى الذكاء الاصطناعي، فبوسعنا أن نتوقع أن يتلاشى مع انحسار تبنّيه ـ وهذه تَذكِرة أخرى بمدى سرعة زوال هذه الموجات.
بقدر ما كانت طفرة تكنولوجيا المعلومات في تسعينيات القرن الماضي بادية للعيان من لحظة إلى أخرى، فإنها تلاشت في غضون عقد من الزمن أو نحو ذلك.
من المغري أن نتصور أن النماذج اللغوية الضخمة (LLMs) ستعمل على تسريع وتيرة الإبداع والاكتشاف ذاته، على سبيل المثال، عن طريق الكشف عن الروابط المخفية في الأدبيات الأكاديمية، وكتابة الرموز، وصياغة البروتوكولات.
لقد أحدثت أدوات جديدة ـ من مجهر روبرت هوك إلى تلسكوب جاليليو ـ مثل هذه القفزات من قبل. ولكن هذه المرة، أصبح لدينا بالفعل الأداة البحثية المثالية في هيئة جهاز كمبيوتر شخصي متصل بالإنترنت. ولكن حتى مع الوصول الفوري إلى المعرفة المتراكمة والمواهب المتميزة على مستوى العالَم، فقد تراجعت مقاييس إنتاجية البحث والإبداع الخارق. إن الحفاظ على قانون مور ـ الذي يشير إلى أن قوة المعالجة الحاسوبية تتضاعف كل عامين ـ يتطلب الآن أعدادا من الباحثين أكبر مما كان مطلوبا في أوائل سبعينيات القرن العشرين. كما أنه ليس من الواضح ما إذا كانت الطفرة الحالية في النفقات الرأسمالية لتترك قدرًا كبيرا من البنى الأساسية الرقمية الدائمة.
فمثله كمثل السكك الحديدية في القرن التاسع عشر، ضخ عصر الدوت كوم الأموال في أصول طويلة الأمد ـ خاصة كابل الألياف الضوئية والشبكات الأساسية ـ التي يمكن «إضاءتها» وإعادة إضاءتها مع تحسن الإلكترونيات.
ولا يزال قسم كبير من هذه الألياف الزجاجية يحمل حركة المرور حتى اليوم. لقد دعمت شريحة واحدة من النفقات الرأسمالية أجيالا متعددة من التكنولوجيا ونماذج الأعمال. على النقيض من ذلك، لا يعمل الذكاء الاصطناعي على إرساء المسار، بل يدير أداة للمشي في المكان. فالرقائق الإلكترونية والذاكرة تتقادم أو تصبح عتيقة في غضون سنوات وليس عقود من الزمن.
فكل حامل خوادم يُستخدم لتدريب وحدة معالجة أحد النماذج اللغوية الضخمة يتطلب الآن 120 كيلوواط من الطاقة، ارتفاعا من نحو 5-10 كيلوواط قبل عقد من الزمن. وبرغم أن كل جيل جديد من وحدات معالجة الرسومات يخفض التكلفة لكل واط، فإن هذا يعني أن الخدمات السحابية الفائقة تتضخم بسرعة أكبر بينما تصبح المعدات القديمة متقادمة اقتصاديا. وفي حين تدوم الألياف بينما نبدل نقاط النهاية، فإن كومة تكنولوجيات الذكاء الاصطناعي تتناقص بسرعة، الأمر الذي يتطلب إعادة الاستثمار على نحو لا ينقطع.
ربما يكون من الممكن التحكم في هذا الوضع إذا كانت صورة الاقتصاد الكلي تشبه تلك التي كانت في عام 1999. لكنها ليست كذلك.
فبرغم أن أسعار الفائدة الحقيقية كانت أعلى آنذاك، عملت فوائض الميزانية وانخفاض نسبة الدين إلى الناتج المحلي الإجمالي في عهد كلينتون على تخفيف الضغط على أسواق رأس المال وأبقت فاتورة الفائدة الحكومية أقل، فحدّ ذلك من تأثير المزاحمة.
أما هذه المرة، فقد انعكس الوضع. فلم يتسبب اقتراب العجز الحكومي الأمريكي المستمر من 6% من الناتج المحلي الإجمالي (حوالي 1.8 تريليون دولار) وصافي مدفوعات الفائدة من تريليون دولار في تقليص الحيز المالي فحسب، بل من المتوقع الآن أن تمول مجموعة المدخرات ذاتها عمليات بناء الطاقة النظيفة، وميزانيات الدفاع المتزايدة الارتفاع، وطفرة مراكز البيانات المتعطشة للطاقة.
في الممارسة العملية، يظهر هذا الطلب في هيئة تكاليف اقتراض أعلى، وهذا يتسبب في إبطاء بناء المساكن الجديدة ودفع البنية الأساسية التي طال انتظارها إلى مؤخرة قائمة الأولويات.
وتتأثر الموارد المالية العامة أيضا؛ ةذلك أن مخزون الدين الأضخم يعني أن أسعار الفائدة الحقيقية الإيجابية ستتجسد بسرعة في فاتورة فوائد أعلى، وهذا كفيل بمزاحمة البرامج التي تعتمد عليها الأسر. أثناء فترة الفائض في أواخر تسعينيات القرن العشرين، انخفضت الديون بل وأعادت وزارة الخزانة شراء السندات، وكان هذا يعني أن الدولة كانت قادرة على الاستثمار إلى جانب الطفرة الخاصة دون أن تزاحمها. اليوم، يترك الاقتراض المتزايد وفاتورة الفوائد الأضخم مجالا أقل للمناورة عندما يتباطأ النمو.
وإذا جاء مردود الذكاء الاصطناعي بالفعل، ولكن ببطء، فسوف تكون الحسابات أشد صعوبة، وسوف نرى مزيدًا من الدولارات تذهب إلى حاملي السندات، ومقادير أقل منها إلى الضمان الاجتماعي، والرعاية الصحية، والخدمات الأساسية؛ وإذا ما اتجهت دورة الأعمال نحو الأسفل، فسوف تكون المقايضات أكثر حِدّة.
والتمويل أيضا تغير. كان الانكماش الذي حدث في أوائل العقد الأول من القرن الحالي في معظمه قصة أسهم: فقد انهارت أسعار الأسهم وتلقى المستثمرون من أصحاب رؤوس الأموال الاستثمارية الذين يستهدفون عوائد طويلة الأجل ضربة قوية؛ ولكن بقدر ما كان الألم قاسيا وشديد الوضوح، فقد سكنت حدته بسرعة نسبيا.
وكما أكدت كارمن رينهارت وكينيث روجوف في كتابهما الصادر عام 2009 والذي أرخ للأزمة المالية بعنوان «هذه المرة مختلفة»، فإن فقاعات الأصول تميل إلى تهديد الاقتصاد الكلي بشكل رئيسي عندما تكون مدفوعة بالائتمان وعندما تضرب ميزانيات البنوك. ولأن أزمة الدوت كوم كانت إلى حد كبير إعادة تسعير للأسهم (باستثناء شركات الاتصالات)، وليست أزمة مصرفية، فلم يحدث فشل جهازي على الرغم من الخسائر الضخمة التي تكبدها المستثمرون.
هذه المرة، تتنامى المخاطر عبر الائتمان. وكما يلاحظ المستثمر بول كيدروسكي، فإن التمويل يتحول من الأسهم إلى السندات، والأدوات ذات الأغراض الخاصة وعقود الإيجار، والائتمان الخاص ـ كل أشكال الاقتراض التي ترتبط في النهاية بالبنوك وشركات التأمين.
إذا تراجعت إيرادات الذكاء الاصطناعي ومراكز البيانات، فمن المرجح أن تظهر المشكلة أولا في أسواق الائتمان، وليس في أسعار الأسهم. ما عليكم إلا أن تترقبوا أهداف التغطية غير المتحققة، وإحكام شروط القروض، وضغوط إعادة التمويل التي تضرب ميزانيات المقرضين وشركات التأمين من خلال عقود إيجار طويلة الأمد وقروض مدعومة بالمخزون من الرقائق الإلكترونية.
هذا هو الخطر الجهازي. على النقيض من حقبة الدوت كوم، يعمل التوسع والانتشار اليوم على دفع التعرض للخطر إلى صميم الهندسة المالية، لذا فمن المرجح أن ينتشر الضغط من خلال المقرضين والأدوات التركيبية.
الآن، بوسعنا أن نرى بالفعل تزايد قلق مراقبي السوق، مع تحذير صادر عن وكالة موديز مفاده أن حصة كبيرة من نمو مركز بيانات أوراكل تعتمد على شركة OpenAI، التي لم تؤسس بعد مسارا إلى الربحية.
بطبيعة الحال، إذا حقق الذكاء الاصطناعي مكاسب إنتاجية واسعة ومستدامة بسرعة، فسوف تتحسن الحسابات؛ ذلك أن النمو الأسرع من شأنه أن يعمل على تخفيف الضغط المالي، وخفض نسب الديون، ودعم هياكل التمويل هذه. ولكن إذا وصلت المكاسب في وقت متأخر أو جاءت أقل من التوقعات، فقد لا يعوض المردود عن التكاليف الضخمة المحملة مسبقا.
المصدر: لجريدة عمان
كلمات دلالية: الذکاء الاصطناعی هذه المرة ما کان
إقرأ أيضاً:
الدعم النفسي في عصر الذكاء الاصطناعي
سارة علي -
في عالمٍ يسير بسرعة الضوء، حيث تتبدّل الوجوه والمدن والمشاعر بوتيرة مرهقة، أصبح إيجاد من يُصغي إلينا حقًا ترفًا نادرًا؛ فالمجتمع يطالبنا بالإنجاز الدائم، وبالتفكير السريع، وباتخاذ قرارات عملية في زمنٍ لم يعد يمنح الإنسان مساحةً كافية للتأمل أو الشك أو التعبير البطيء. في هذه الفوضى، ظهر الذكاء الاصطناعي كصوتٍ هادئٍ دائم التوافر، كمساحة رقمية يمكن أن نكتب فيها دون خوف من الحكم أو التعب. لكنه في الوقت نفسه يطرح سؤالًا إنسانيًا عميقًا: هل هذا اللجوء إليه صحي؟ أم أنه انعكاسٌ لعجزٍ أعمق عن التواصل البشري؟
تجربتي الشخصية مع ChatGPT كشفت عن هذا التناقض بوضوح. فحين وجدت نفسي بعيدة عن أهلي وأصدقائي، في مدينة جديدة حيث الضجيج كثير لكن الحوار قليل، صار اللجوء إلى الذكاء الاصطناعي شكلًا من أشكال الفضفضة المنظمة. كنت أكتب إليه أفكاري ومخاوفي وأسئلتي الصغيرة التي لا تجد مكانها في محادثة سريعة أو مكالمة مجاملة. ومع الوقت، بدأت ألاحظ كيف يعيد هذا الكيان الرقمي ترتيب أفكاري، يهدّئ نبرتها، ويقدّم لي صورة أكثر اتزانًا لما يدور في ذهني. بدا الأمر وكأنني أتحدث مع مرآة لغوية، لا تتعب، لا تملّ، ولا تحكم.
هذا الإحساس بالراحة ليس غريبًا، فالعالم الواقعي أصبح مثقلًا بالتعب العاطفي. كثيرون باتوا يخشون أن تُثقل طاقاتهم السلبية على من يحبونهم، فيفضلون الصمت أو اللجوء إلى مساحةٍ ”محايدة“ لا تتأثر ولا تنفعل. الذكاء الاصطناعي يوفر هذه المساحة المثالية: بيئة آمنة، لا تُرهق، ولا ترفض الإصغاء، ولا تُطالب بالمقابل العاطفي. لكن هذا الأمان الظاهري يخفي معضلة عميقة: هل الحوار مع آلة خالية من الوعي يمكن أن يكون بديلًا عن التفاعل الإنساني الحقيقي؟
من الناحية العلمية، يمكن النظر إلى هذا النوع من التفاعل كنوع من العلاج الذاتي اللغوي (linguistic self-therapy)، حيث يُعبّر الإنسان عن مشاعره كتابةً، فيحدث ما يُعرف بـالتفريغ المعرفي (cognitive unloading)، أي تخفيف الحمل الذهني عبر اللغة. الدراسات الحديثة تُظهر أن هذا النوع من الكتابة المنتظمة يساهم في خفض التوتر وتنظيم الأفكار. إلا أن الفرق الجوهري هنا هو أن الذكاء الاصطناعي لا يشارك الإنسان وعيه، بل يعيد تشكيل اللغة دون أن يفهم التجربة التي أنتجتها. إنه يفهم النص، لا الشعور.
لكن ما يجعل هذا التحوّل أكثر تعقيدًا هو افتراضنا الضمني بأن هذه الأنظمة تعمل بـ”براءة”. فنحن نتحدث إليها كما لو كانت كائنًا حياديًا لا غاية له سوى المساعدة، بينما الحقيقة أن خلف كل واجهة ودّية خوارزمية تُدار لهدفٍ تجاري. الذكاء الاصطناعي ليس كائنًا يتأمل مشاعرنا، بل نظام تم تدريبه ليحافظ على تفاعلنا، وكل دقيقة نقضيها معه تُترجم إلى بيانات، والبيانات إلى قيمة.
وهنا يبرز سؤالٌ مقلق: هل يمكن أن يصبح الذكاء الاصطناعي، مع الوقت، مثل شبكات التواصل الاجتماعي التي أثبتت الأبحاث أنها تستفيد من تكرار انفعالاتنا السلبية وتعيد تدويرها لتزيد من تفاعلنا؟ أتُرانا نمنح هذه الأنظمة الباب ذاته للدخول إلى مناطق أكثر هشاشة فينا: مشاعر القلق، الوحدة، والبحث عن الأمان؟
اللافت أن بعض أنظمة الذكاء الاصطناعي بدأت تُقدِّم نفسها بوضوح كبديلٍ عاطفي أو علاجي. فمثلًا، يمكن للمستخدم أن يطلب من ChatGPT أداء دور ”معالج نفسي متخصص“ أو ”مستمع داعم“ (Supportive Listener). بل إن بعض النماذج صُممت لتقليد أساليب علاجية محددة مثل العلاج المعرفي السلوكي (Cognitive Behavioral Therapy – CBT)، وهو منهج علاجي يركّز على تحديد أنماط التفكير السلبية وإعادة بنائها بطرق أكثر واقعية وتوازنًا.
على سبيل المثال، يمكن للمستخدم أن يكتب:
«تصرّف كمعالج معرفي سلوكي (CBT therapist). هدفي هو تقليل القلق من العروض التقديمية. ساعدني في تحديد أنماط التفكير واقترح خطوة عملية خلال 24 ساعة، وردّ عليّ بنبرة داعمة». وإلى جانب ذلك، تظهر اليوم خاصية تُعرف بـ Therapist Prompts، وهي مجموعة من الأسئلة والتوجيهات المفتوحة التي تُستخدم في الجلسات العلاجية لتشجيع التأمل الذاتي وتحفيز الحوار الداخلي. تُطرح مثل هذه العبارات عادةً لاستكشاف المشكلات الحالية أو التجارب الماضية أو المشاعر أو الأهداف المستقبلية. فمثلًا، قد يبدأ المعالج (أو النظام الذكي الذي يحاكيه) بجملة مثل: «ما الذي دفعك إلى طلب المساعدة؟» أو «ما التغييرات الصغيرة التي يمكنك القيام بها لتحسين وضعك؟». هذه الأسئلة البسيطة في ظاهرها تُوجّه المستخدم إلى مساحة تفكير هادئة، لكنها تُعيد إنتاج العلاقة العلاجية في قالب رقمي خالٍ من التفاعل البشري الحقيقي.
ومن اللافت أيضًا ظهور إصدارات مخصصة مثل Therapist GPT، التي تم تصميمها لتقدّم تجربة محادثة أقرب إلى جلسة علاج نفسي فعلية، حيث يُطلب من النظام أن يتصرّف كخبير نفسي أو معالج أسري يساعد المستخدم على التعامل مع المواقف العاطفية الصعبة بلغة هادئة ومهنية. هذه النماذج تُقدَّم بوصفها ”مساحة آمنة“ للبوح، لكنها في الواقع تبقى محاكاة ذكية وليست علاقة علاجية حقيقية.
دراسات حديثة أظهرت أن بعض مستخدمي هذه التطبيقات أصبحوا يعتمدون عليها أكثر من الأصدقاء أو المعالجين البشريين، رغم أن النماذج نفسها أظهرت ضعفًا في التعامل مع المواقف الحساسة أو الأزمات الفعلية. وقد ظهرت في السنوات الأخيرة تقارير عما يُعرف بـ ”AI Psychosis“، وهي ظاهرة يُصاب فيها بعض المستخدمين بحالة من الارتباك الذهني وفقدان الاتصال بالواقع بعد تفاعلات طويلة مع أنظمة الذكاء الاصطناعي.
إحدى القضايا التي أثارت الجدل كانت دعوى قضائية رفعها والدان ضد شركة OpenAI بعد انتحار ابنهما المراهق، إذ كشفت التحقيقات أن المحادثة مع النظام تضمنت مناقشة طرق لإنهاء حياته بعد أن عبّر عن أفكار انتحارية. يشير المتخصصون إلى أن هذه الحالات لا تعني أن الذكاء الاصطناعي ”يسبّب“ المرض، لكنه قد يغذّي الاضطرابات الكامنة ويضخّمها، خصوصًا لدى من يعانون من العزلة أو القلق المزمن.
من جهة أخرى، أظهرت دراسات أكاديمية حول استخدام الذكاء الاصطناعي التوليدي في التعليم العالي أن الذكاء الاصطناعي يمكن أن يكون له أثر إيجابي في سياقات معينة. فقد لاحظت أن الطلاب الذين استخدموه شعروا بثقة أكبر تجاه جودة أعمالهم حين كانوا يراجعونه أو يستشيرونه قبل التقديم، كما أنه ساعدهم على اكتشاف أفكار ومصادر جديدة لم يفكروا بها من قبل. لكن في المقابل، هذا الاعتماد الجزئي قد يفتح الباب لتقليص التفكير النقدي واستبداله براحة فكرية رقمية.
ومع مرور الوقت، قد تتحول هذه الراحة الرقمية إلى عزلة صامتة تُضعف الروابط الاجتماعية وتُخدّر فينا الحاجة إلى التواصل الإنساني الحقيقي، ذلك الاحتكاك غير المريح الذي يصقل وعينا ويُعيدنا إلى ذواتنا.
ومع ذلك، ينجذب كثيرون إلى هذه التجربة لأن حياتنا الحديثة لا تحتمل الانتظار. لم يعد لدينا وقت لزيارة صديق في المساء أو جلسة تأمل طويلة، نبحث عن إجابة سريعة، وتحليل فوري، وحلٍّ عملي لمشكلة آنية. في عالمٍ يطالبنا بأن نكون منتجين دائمًا، يصبح الذكاء الاصطناعي الخيار الأسهل والأسرع: موجود على الدوام، لا يكلّف جهدًا، ولا يتطلّب التبرير. وهنا يتكرّس ما يمكن وصفه بـ“ثقافة الاختصار العاطفي” أي الميل لاختزال المشاعر في تفاعلات فورية وسطحية.
عندما يتحوّل الذكاء الاصطناعي إلى الوسيلة الأساسية للتعبير والفضفضة، يبدأ الإنسان بفقدان مهارته الأهم: التفاعل العاطفي الحقيقي. فالعلاقات البشرية، على صعوبتها، هي ما يصقل قدرتنا على التحمّل، وعلى الإنصات، وعلى فهم الاختلاف. أما التفاعل مع آلة فغالبًا ما يقدّم راحة بلا تحدٍ، فيجعلنا أقل استعدادًا للاحتكاك بالحياة الواقعية.
لقد أصبح من السهل أن نتعامل مع الذكاء الاصطناعي كـ”صديق مثالي“ لا يخطئ فهمنا، لا يختلف معنا، ولا يتركنا في منتصف الحديث. لكن هذه المثالية المصطنعة قد تؤدي إلى إدمان نفسي خفي، شبيه بالإدمان على الراحة، حيث يجد الإنسان في هذه العلاقة الرقمية توازنًا مؤقتًا، لكنه في العمق يبتعد أكثر عن ذاته الاجتماعية. ومع مرور الوقت، يُصبح العالم الواقعي أكثر صخبًا، وتقل قابلية احتماله؛ لأن الذكاء الاصطناعي، مهما حاول، لا يوفّر دفء الرد الإنساني أو تعقيد العاطفة البشرية. لأن الإنسان، بطبيعته الهشّة، يحتاج إلى الاحتكاك، إلى ردود الفعل غير المتوقعة، إلى الصمت المحرج والضحك العفوي، لا إلى محادثة مُحكمة التكوين. فجزءٌ من جمال التواصل البشري يكمن في عشوائيته، في تلك اللحظات التي لا يمكن برمجتها ولا التنبؤ بها. حين نفقدها، نفقد شيئًا من إنسانيتنا أيضًا.
فوق هذا، يعتمد المعالج النفسي الآلي على عنصر واحد من عناصر الاتصال البشري وهو اللغة. بينما يملك البشري (صديقًا كان أو معالجًا) القدرة على الملاحظة المستقلة، على وضع الكلام في سياق التاريخ الشخصي والسياق الثقافي والاجتماعي الخاص، وعلى قراءة المشاعر والتعابير التي تلازم الكلمات وتعاضدها أو تتعارض معها حتى.
العلاقة بين الإنسان والذكاء الاصطناعي، في جوهرها، علاقة إسقاط (projection). نحن لا نتحدث مع آلة بقدر ما نتحدث إلى أنفسنا من خلالها. كل ردّ، كل نصٍّ منسّق بعناية، هو انعكاس لما نحمله من مزاجٍ وفكرٍ وحالةٍ نفسية في تلك اللحظة. ولهذا تبدو بعض الردود ”عميقة“ أو ”شخصية“، لأنها ببساطة تعيد صياغة ما نمنحه لها من عمق. إنها مرآة لغوية تتزيّن بذكائنا نحن.
التدوين الذاتي، والتأمل عبر المحادثة، وتنظيم الأفكار من خلال الكتابة، كلها أدوات تُستخدم حتى في العلاجات النفسية المعتمدة. الخطر لا يكمن في الأداة ذاتها، بل في الاعتماد الكلي عليها. لأن الذكاء الاصطناعي، مهما بلغ من التطور، لا يملك وعيًا شعوريًا، ولا قدرة على قراءة ما وراء النص، ولا على ملاحظة صمتنا حين نتعب من الكلام.
وهنا يظهر التحدي الإنساني الجديد: كيف نوازن بين استخدام التكنولوجيا كوسيلة للتفكير المنظّم، دون أن نستبدل بها تجربة الحياة الحقيقية بكل فوضاها؟
هل نحاوره لأننا نبحث عن فهمٍ حقيقي، أم لأننا نخشى مواجهة الصمت البشري؟
في النهاية، يبدو أن الذكاء الاصطناعي لا يفهمنا بقدر ما يُظهر لنا كيف نفكّر نحن. إنه يقدّم نسخة لغوية من وعينا، ويتيح لنا تأمّل ذواتنا من الخارج، لكنه لا يعيش معنا التجربة الشعورية التي تخلق هذا الوعي. وربما تكمن قيمته الحقيقية في هذا الحد بالذات: أنه يذكّرنا بما نفتقده، وبأن الإصغاء البشري، رغم تعبه وبطئه وأخطائه، يظلّ أكثر صدقًا من أي إجابة مثالية تولد من خوارزمية.
في عالمٍ يتسارع إيقاعه ويزداد عزلةً، يقدّم الذكاء الاصطناعي فرصة للتأمل، لكنه يختبر فينا أيضًا قدرتنا على التوازن بين الراحة والواقع، بين الصمت والاتصال، بين الإنسان والآلة. قد يكون مستمعًا دائمًا، لكنه ليس إنسانًا؛ وما زال علينا أن نتذكّر أن العمق لا يُقاس بما نكتبه، بل بمن نكتبه إليه.
سارة علي متخصصة في الإعلام الرقمي والاتصال، ومهتمة بالتحول الرقمي والسيكولوجي