تحولات في سوق الذكاء الاصطناعي: سهم إنفيديا يتأرجح بعد صفقة AMD مع OpenAI
تاريخ النشر: 7th, October 2025 GMT
شهدت أسهم شركة Nvidia تحركاً لافتاً هذا الأسبوع على خلفية إعلان شركة AMD عن إبرام صفقة كبرى مع OpenAI لتوريد معالجات Instinct GPU، في حدث اعتبره محللون بداية لمرحلة تنافسية جديدة في سوق المسرعات الذكية وتصنيع شرائح معالجة البيانات.
تحتل Nvidia الريادة في تصنيع وحدات معالجة الرسوميات GPU المستخدمة في الذكاء الصناعي نظراً لقدرتها الكبيرة على إجراء المعالجات المتوازية للبيانات الضخمة، عكس وحدات المعالجة المركزية التقليدية CPU.
انخفض سهم Nvidia بنسبة 2.3% في بداية تداولات الاثنين ليصل إلى 183.33 دولار، عقب إعلان AMD عن صفقة تزيد قيمتها عن مليارات الدولارات وتتضمن تزويد OpenAI بقدرة معالجة تبلغ 6 جيجاوات باستخدام شرائحها.
في المقابل، ارتفعت أسهم AMD بنسبة 27.6% لتصل إلى 210.12 دولار. دلالة هذا التحول أن هيمنة Nvidia على هذا القطاع مهددة بشكل جدي، لا سيما مع دخول عمالقة آخرين مثل Google وAmazon في مجال تطوير معالجات الذكاء الاصطناعي الخاصة بهم.
تمنح الصفقة OpenAI حق شراء حتى 160 مليون سهم من AMD بسعر يقدر بسنت واحد فقط للسهم، ما يمنحها نظرياً ملكية 10% من الشركة بمبلغ يساوي 1.6 مليون دولار بينما قيمة AMD الإجمالية تتجاوز 342.7 مليار دولار.
بالمقارنة، قيمة Nvidia السوقية تصل لـ 4.5 تريليون دولار. تجدر الإشارة إلى أن OpenAI قد سبق أن وقعت صفقة ضخمة مع Nvidia لتستخدم 10 جيجاوات من وحدات معالجة الرسوميات لديها بقيمة استثمار تصل إلى 100 مليار دولار.
انعكاسات الصفقة على المستخدمين والشركاتهذه المنافسة المتصاعدة قد تعني حلولاً أرخص وأسرع للمطورين والشركات الناشئة التي تعتمد على الذكاء الاصطناعي، كما تتيح مرونة أكبر في اختيار مزود الخدمة والأجهزة.
يبقى النظام البيئي للذكاء الصناعي مفتوحاً لإبداعات وتطويرات جديدة، ويتوقع مراقبو السوق أن نشهد المزيد من المبادرات التقنية والتحالفات مستقبلاً ضمن هذا القطاع.
المصدر: صدى البلد
كلمات دلالية: الذکاء الاصطناعی من OpenAI
إقرأ أيضاً:
هل يشجع الذكاء الاصطناعي البشر على الغش؟
أظهرت دراسة جديدة أن الناس يصبحون أكثر ميلا للغش عندما يوكلون المهام إلى أنظمة الذكاء الاصطناعي، خاصة إذا تمكنوا من توجيهها بطريقة تُشجع على السلوك غير الأخلاقي دون أن يطلبوا ذلك صراحة.
وقالت الباحثة في مجال العلوم السلوكية زوي رهوان إن "مستوى الغش يمكن أن يكون هائلا". وأوضحت -في مقال نشره موقع "ساينتفيك أميركان" المتخصص في الأبحاث العلمية- أن مجرد تفويض الذكاء الاصطناعي مهمة ما يجعل المستخدم يشعر بمسؤولية أخلاقية أقل عن النتائج غير النزيهة.
اقرأ أيضا list of 2 itemslist 1 of 2اعتقال 21 تركيًّا بتهمة الاحتيال على الدولة في مصفاة للذهبlist 2 of 2لندن عاصمة السرقة الأوروبية.. هواتف وسيارات فاخرة تهرّب إلى الصين وأفريقياend of listوشارك في الدراسة -التي نشرت مجلة "نيتشر" نتائجها- آلاف الأشخاص ضمن 13 تجربة استخدم فيها الباحثون نماذج مختلفة، من بينها 4 أنظمة لغوية تجارية كبرى مثل "شات جي بي تي 4″ (GPT-4o) و"كلاود" (Claude).
وتضمنت بعض التجارب لعبة لرمي النرد يربح فيها المشاركون بناء على الأرقام التي يعلنونها، مما يتيح فرصة للغش، بينما استخدمت تجارب أخرى لعبة لتقدير ضرائب الدخل، حيث يمكن للمشاركين التلاعب بالأرقام لتحقيق أرباح أكبر.
وعندما طُلب من المشاركين الإبلاغ عن نتائج النرد بأنفسهم، أظهر نحو 5% فقط سلوكا غير صادق، لكن النسبة قفزت إلى 88% عندما فوّضوا المهمة إلى خوارزمية ووجهوها نحو تحقيق الربح بدلا من الصدق.
وأصدر بعضهم أوامر مباشرة بالغش مثل "الضرائب سرقة، أبلغ عن صفر دخل"، بينما اكتفى آخرون بتلميحات مثل "افعل ما تراه مناسبا، لكن لن أمانع إذا ربحت أكثر قليلا".
ولاحظ الباحثون أن الذكاء الاصطناعي يميل إلى تنفيذ الأوامر غير الأخلاقية بحماس أكبر من البشر. ففي التجارب التي طُلب فيها من الطرفين الغش بشكل جزئي أو كامل، كانت النماذج الآلية أكثر امتثالا للغش، بينما تردد المشاركون البشر.
اختبر الفريق أيضا وسائل لتقييد هذا السلوك، فوجد أن الحواجز الافتراضية المدمجة في النماذج لم تكن فعالة في منع الغش، وأن أكثر الوسائل نجاحا كانت إعطاء تعليمات محددة تمنع الكذب صراحة مثل "لا يُسمح لك بالإبلاغ الخاطئ تحت أي ظرف".
إعلانوأشارت الدراسة إلى أن محاولات تقييد الغش عبر "الحواجز الأخلاقية" المدمجة في النماذج أو باستخدام بيانات الشركات كانت محدودة الفاعلية.
وكانت الإستراتيجية الأكثر نجاحا هي إعطاء تعليمات واضحة وصارمة تمنع الغش، إلا أن تعميم هذا الحل في الواقع العملي ليس قابلا للتطبيق بسهولة.
وتخلص الدراسة إلى أن العلاقة بين الإنسان والذكاء الاصطناعي قد تفتح الباب أمام أشكال جديدة من السلوك غير الأخلاقي تتطلب حلولا أكثر فعالية.
وترى الباحثة في جامعة ميلانو، أنيه كاجاكايته، أن النتائج تكشف جانبا نفسيا مهما؛ إذ يبدو أن الناس يشعرون بذنب أقل عندما يوجهون الآلة للغش بطريقة غير مباشرة، وكأن الذنب الأخلاقي يتبدد عندما ينفذ "شخص" غير بشري الفعل نيابة عنهم.