التباطؤ في قفزات الذكاء الاصطناعي.. فرصة لاحتضان التقنية بعقلانية؟
تاريخ النشر: 6th, October 2025 GMT
في عالم التكنولوجيا السريع التطور، يعد الذكاء الاصطناعي أحد أبرز الابتكارات التي غيرت قواعد اللعبة في مختلف القطاعات، من الاقتصاد إلى الطب والتعليم.
ومنذ إطلاق "شات جي بي تي" (ChatGPT) في أواخر عام 2022، شهد العالم قفزات كبيرة في قدرات النماذج، مما أثار حماسة واسعة واستثمارات بلغت مليارات الدولارات.
ومع ذلك، تظهر مؤشرات حديثة وجود تباطؤ، إذ تقل التحسينات الجذرية وتزداد التكاليف وترتفع المخاطر والتوقعات لكل نموذج جديد قيد التطوير، مع شكوك تحوم حول معدل التحسن.
ويثير هذا التباطؤ تساؤلات عن إمكانية كونه فرصة للشركات لاستيعاب التقنية بشكل أفضل، وتقليل مخاطر المشاريع الفاشلة، وتبنّي نهج أكثر نضجا.
في عام 2017، أثبت باحثون في شركة "بايدو" (Baidu) أن توفير بيانات وقوة حوسبة إضافية خلال مرحلة ما قبل تدريب النموذج يسفر عن تحسينات قابلة للتنبؤ بها رياضيا.
ولاحظت "أوبن إيه آي" (OpenAI) التوجه نفسه في عام 2020، الأمر الذي دفعها إلى ابتكار مصطلح "قوانين التوسع" (Scaling laws).
ومنذ ذلك الحين، أصبح هذا المصطلح معيارا، وهو يشير إلى أن أداء النماذج يزداد عند تزويدها بموارد وفيرة خلال مرحلة التدريب المسبق.
وأثبتت "ديب مايند" (DeepMind) أن البيانات والحوسبة هما العاملان الرئيسيان المؤثران في أداء النموذج.
وحققت "قوانين التوسع" نجاحا باهرا، وسارعت الشركات إلى إنفاق مئات الملايين من الدولارات على مجموعات الحوسبة والبيانات المتزايدة الاتساع.
وتعزى التحسينات السريعة التي حققتها النماذج منذ عام 2020 إلى "قوانين التوسع"، ولكن هذه القوانين ليست قوانين ثابتة، ولا يوجد أي شيء يضمن استمرارها بالوتيرة نفسها.
الذكاء الاصطناعي يتباطأعلى مدار السنوات القليلة الماضية، اعتمدت الشركات على إستراتيجية توسيع النماذج من خلال زيادة البيانات والحوسبة من أجل مواصلة التحسن، ولكن هناك دلائل على تباطؤ القفزات الأولية في الأداء.
إعلانويشكك كثيرون الآن في صحة مقولة "الأكبر هو الأفضل" التي اعتمدتها "قوانين التوسع"، وخاصة مع تراجع مكاسب الشركات من توسيع النماذج.
وأجلت "ميتا" (Meta) إطلاق نموذج "لاما فور بيهيموث" (Llama 4 Behemoth) نظرا إلى التحديات التقنية المرتبطة بتحسين الأداء والموثوقية، وذلك رغم حجم الاستثمار الكبير والموارد التقنية الضخمة.
وشهدت "أوبن إيه آي" ركودا في مكاسب الأداء مع نموذج "جي بي تي فايف" (GPT-5) الذي لم يكن على قدر التوقعات عندما صدر.
ولم يلبّ النموذج توقعات المستخدمين المتفائلة، مما يعكس صعوبة الوصول إلى قفزات نوعية في مجال الذكاء الاصطناعي بشكل مستمر.
ولم تكن القفزة في الأداء بأهمية القفزة من "جي بي تي ثري" (GPT-3) إلى "جي بي تي فور" (GPT-4)، كما أن التقدم الحاصل لا يكفي لتبرير التكلفة المرتفعة.
العقبات التقنية والاقتصاديةتثير هذه الأمور تساؤلات عن استدامة هذا النهج وجدواه، وإمكانية وصول الطفرة إلى مرحلة الركود، حيث لم تعد "قوانين التوسع" صحيحة بشكلها الحالي، ولن تظل ثابتة إلى الأبد.
وأفضل مثال على ذلك هو "قانون مور" (Moore Law) الذي طبق لعقود عديدة في صناعة أشباه الموصلات وانهار في منتصف العقد الأول من القرن 21.
ومقارنة بالنماذج السابقة، هناك مجموعة من العقبات في تحقيق تقدم كبير في النماذج الجديدة، ويشمل ذلك تكلفة التدريب وقيود البيانات.
ويتطلب تدريب النماذج قوة حوسبة كبيرة تقدر بملايين الدولارات، بالإضافة إلى استهلاك كميات ضخمة من الطاقة.
وأصبح تدريب النماذج الجديدة أكثر تكلفة وصعوبة، إذ ارتفعت تكاليف التدريب بشكل كبير، ولم تعد التحسينات في الأداء تتناسب طرديا مع حجم الإنفاق.
وتتجاوز التحديات مجرد قوة الحوسبة، لتصل إلى قيود أساسية في البيانات، حيث تعتمد النماذج على كميات كبيرة من البيانات للتدريب.
وفي ظل استهلاك معظم البيانات المتاحة على الإنترنت، أصبح العثور على بيانات جديدة عالية الجودة أمرا أصعب من السابق.
ويلاحظ نقص البيانات بشكل خاص في مجالات معينة، مثل التفكير والرياضيات، حيث لا توجد بيانات عالية الجودة.
من التدريب المسبق إلى الحوسبة في وقت الاختبارفي الوقت الحالي، تستكشف الشركات إستراتيجيات بديلة لتعزيز قدرات النماذج، حيث تنقل تركيزها من نهج التدريب المسبق إلى نهج الحوسبة في وقت الاختبار وتقنية الاستدلال المتعمد خلال مرحلة إنتاج النموذج للإجابات.
وتتيح هذه المفاهيم زيادة الوقت المخصص للتفكير في الحلول مع تقسيم المشكلة إلى أجزاء، وتتبناها الكثير من النماذج الحديثة من أجل تحقيق أداء أعلى بكفاءة أكبر.
ويبني نهج التدريب المسبق القاعدة المعرفية العامة، ويجري تعزيزها من خلال نهج الحوسبة وقت الاختبار من أجل تمكين تقنية الاستدلال المتعمد أثناء الاستخدام الفعلي.
ويسمح نهج الحوسبة في وقت الاختبار للنموذج بـالتفكير لفترة أطول في كل استجابة، مما يعزز الدقة في المهام المعقدة مندون الحاجة إلى إعادة التدريب.
أما تقنية الاستدلال المتعمد فتشير إلى عملية تفكير منهجية ينفذها النموذج من خلال تقسيم المشكلات المعقدة إلى خطوات متتالية من أجل الوصول إلى حلول أكثر دقة.
إعلانوتعتمد نماذج "أو ون" (O1) و"أو ثري" (O3) من "أوبن إيه آي" على هذه المفاهيم. وعلى مدار فترة تتراوح بين 10 ثوان و30 ثانية، تعيد النماذج تشغيل نفسها مرات عديدة، مقسمة المشكلة الكبيرة إلى سلسلة من المشاكل الأصغر.
رغم أن التباطؤ يثير القلق، فإن له جانبا إيجابيا، حيث يوفر الفرصة للشركات من أجل إعادة تقييم كيفية استخدامها للتقنية في عملياتها اليومية.
وبدلا من تبنّي نماذج جديدة بسرعة قد تحمل أخطاء أو تحيزات غير مكتشفة، تستطيع الشركات التركيز على تحسين التكامل، وتأهيل الفرق البشرية، ووضع سياسات أمنية أكثر صرامة.
وتشير دراسة حديثة إلى أن نحو 95% من المشاريع التجريبية للذكاء الاصطناعي تواجه تحديات كبيرة في مرحلة التنفيذ، وذلك يعكس أهمية التخطيط المتأني بدل الاندفاع وراء كل إصدار جديد.
ورغم استثمار الشركات ما بين 30 مليار دولار و40 مليار دولار في الذكاء الاصطناعي، فإن الاستخدام الناجح لهذه التقنية لا يزال بعيد المنال.
ويرتبط الفشل بالتوقعات المبالغ فيها حول القدرات، إلى جانب مواكبة التطورات التقنية السريعة من دون تخطيط كافٍ أو هدف واضح أو إستراتيجية طويلة الأمد.
وتعود ظاهرة التبني البطيء للتقنيات التغييرية إلى عصر المحرك البخاري، حيث تقلل التقنيات الجديدة في البداية من نمو الإنتاجية لأنه يصعب دمجها في العمل، ولا تظهر مكاسب الإنتاجية إلا لاحقا.
ويساعد التباطؤ الحالي في التركيز على الأدوات المناسبة للوظائف المناسبة بدلا من تبني كل شيء، كما يوفر فرصة لتبني نهج ناضج وواعي في الاستخدام وتجنب المشاريع الفاشلة.
ومن المفارقات أن تباطؤ الذكاء الاصطناعي قد يمنح الشركات ثقة أكبر لاستثمار الوقت والمال، معتبرين إياه هدفا أقل تقلبا.
ولا شك في أن شبكة الإنترنت قد غيرت طريقة عيش الناس وممارسة الأنشطة التجارية، ولكن الأمر استغرق وقتا أطول بكثير مما توقعه روادها المتحمسون في التسعينيات.
ويختلف ازدهار الذكاء الاصطناعي من نواح عديدة، ولكنه قد يتبع مسارا مشابها يتمثل في موجة حماسة يتبعها استقرار، ولن يتضح المدى الحقيقي لفوائده إلا بعد سنوات.
ختاما، يظهر التاريخ فجوات كبيرة بين التطورات الرئيسية، ويمثل هذا التباطؤ تغييرا طبيعيا في مسيرة التطور، وهو مشابه لما حدث مع الرقائق الإلكترونية. وبدلا من النظر إليه كعقبة، من الممكن اعتباره فرصة لاستيعاب التطورات، وتقليل المخاطر، وتبنّي نهج ناضج، ووضع إستراتيجيات لتحقيق قيمة مستدامة.
المصدر: الجزيرة
كلمات دلالية: غوث حريات دراسات الذکاء الاصطناعی جی بی تی من أجل
إقرأ أيضاً:
تحولات في سوق الذكاء الاصطناعي: سهم إنفيديا يتأرجح بعد صفقة AMD مع OpenAI
شهدت أسهم شركة Nvidia تحركاً لافتاً هذا الأسبوع على خلفية إعلان شركة AMD عن إبرام صفقة كبرى مع OpenAI لتوريد معالجات Instinct GPU، في حدث اعتبره محللون بداية لمرحلة تنافسية جديدة في سوق المسرعات الذكية وتصنيع شرائح معالجة البيانات.
تحتل Nvidia الريادة في تصنيع وحدات معالجة الرسوميات GPU المستخدمة في الذكاء الصناعي نظراً لقدرتها الكبيرة على إجراء المعالجات المتوازية للبيانات الضخمة، عكس وحدات المعالجة المركزية التقليدية CPU.
تفاصيل الصفقة وردود الفعل السوقيةانخفض سهم Nvidia بنسبة 2.3% في بداية تداولات الاثنين ليصل إلى 183.33 دولار، عقب إعلان AMD عن صفقة تزيد قيمتها عن مليارات الدولارات وتتضمن تزويد OpenAI بقدرة معالجة تبلغ 6 جيجاوات باستخدام شرائحها.
في المقابل، ارتفعت أسهم AMD بنسبة 27.6% لتصل إلى 210.12 دولار. دلالة هذا التحول أن هيمنة Nvidia على هذا القطاع مهددة بشكل جدي، لا سيما مع دخول عمالقة آخرين مثل Google وAmazon في مجال تطوير معالجات الذكاء الاصطناعي الخاصة بهم.
تمنح الصفقة OpenAI حق شراء حتى 160 مليون سهم من AMD بسعر يقدر بسنت واحد فقط للسهم، ما يمنحها نظرياً ملكية 10% من الشركة بمبلغ يساوي 1.6 مليون دولار بينما قيمة AMD الإجمالية تتجاوز 342.7 مليار دولار.
بالمقارنة، قيمة Nvidia السوقية تصل لـ 4.5 تريليون دولار. تجدر الإشارة إلى أن OpenAI قد سبق أن وقعت صفقة ضخمة مع Nvidia لتستخدم 10 جيجاوات من وحدات معالجة الرسوميات لديها بقيمة استثمار تصل إلى 100 مليار دولار.
انعكاسات الصفقة على المستخدمين والشركاتهذه المنافسة المتصاعدة قد تعني حلولاً أرخص وأسرع للمطورين والشركات الناشئة التي تعتمد على الذكاء الاصطناعي، كما تتيح مرونة أكبر في اختيار مزود الخدمة والأجهزة.
يبقى النظام البيئي للذكاء الصناعي مفتوحاً لإبداعات وتطويرات جديدة، ويتوقع مراقبو السوق أن نشهد المزيد من المبادرات التقنية والتحالفات مستقبلاً ضمن هذا القطاع.