OpenAI تستعد لإنتاج أول شريحة ذكاء صناعي بالتعاون مع Broadcom
تاريخ النشر: 7th, September 2025 GMT
أفادت صحيفة “فاينانشيال تايمز”، نقلا عن مصادر مطلعة، بأن شركة OpenAI بصدد إنتاج أول شريحة ذكاء صناعي لها في العام المقبل بالتعاون مع عملاق أشباه الموصلات الأمريكي Broadcom.
وبحسب التقرير، فإن OpenAI تعتزم استخدام الشريحة داخليا بدلا من جعلها متاحة للعملاء الخارجيين، وذلك وفقا لما ذكره أحد الأشخاص القريبين من المشروع.
تعتبر OpenAI، التي ساعدت في تطوير الذكاء الاصطناعي التوليدي القادر على تقديم ردود شبيهة بالبشر على الاستفسارات، معتمدة بشكل كبير على قوة الحوسبة الضخمة لتدريب وتشغيل أنظمتها.
وكانت وكالة “رويترز”، قد أفادت خلال العام الماضي، بأن OpenAI كانت تعمل مع Broadcom وشركة تصنيع أشباه الموصلات التايوانية (TSMC) لتطوير أول شريحة داخلية لها لدعم أنظمة الذكاء الاصطناعي الخاصة بها، مع دمج شرائح AMD إلى جانب شرائح إنفيديا لتلبية الزيادة في الطلب على البنية التحتية.
وفي ذلك الوقت، كانت OpenAI قد استعرضت مجموعة من الخيارات لتنويع إمدادات الشرائح وتقليل التكاليف.
وفي شهر فبراير الماضي، ذكرت “رويترز” أن OpenAI كانت تواصل دفع خططها لتقليل اعتمادها على إنفيديا في إمدادات الشرائح، من خلال تطوير الجيل الأول من الشرائح الخاصة بها لتشغيل الذكاء الاصطناعي.
وقالت مصادر لـ “رويترز”، إن شركة OpenAI كانت في مراحلها النهائية لتصميم شريحتها الأولى، وكانت تخطط لإرسالها للتصنيع في TSMC خلال الأشهر القادمة.
من جانبه، قال هوك تان، الرئيس التنفيذي لشركة Broadcom، يوم الخميس إن الشركة تتوقع نموا كبيرا في إيرادات الذكاء الاصطناعي خلال السنة المالية 2026، بعد تأمين طلبات تجاوزت قيمتها 10 مليارات دولار في مجال بنية الذكاء الاصطناعي من عميل جديد لم يتم تسميته.
وأضاف تان خلال مكالمة أرباح أن العميل الجديد وضع طلبا مؤكدا في الربع الأخير، مما جعله يصبح من العملاء المؤهلين.
وفي وقت سابق من هذا العام، ألمح تان إلى وجود أربعة عملاء محتملين جدد “مستفيدين بشكل عميق” مع الشركة لإنشاء شرائح مخصصة لهم، بالإضافة إلى ثلاث عملاء كبار موجودين.
يأتي تحرك OpenAI في إطار جهود شركات مثل جوجل وأمازون وميتا، التي طورت شرائح مخصصة للتعامل مع أحمال العمل المتعلقة بالذكاء الاصطناعي، في وقت يتزايد فيه الطلب على قوة الحوسبة لتدريب وتشغيل نماذج الذكاء الاصطناعي.
المصدر: صدى البلد
كلمات دلالية: الذکاء الاصطناعی أول شریحة
إقرأ أيضاً:
هل يشجع الذكاء الاصطناعي البشر على الغش؟
أظهرت دراسة جديدة أن الناس يصبحون أكثر ميلا للغش عندما يوكلون المهام إلى أنظمة الذكاء الاصطناعي، خاصة إذا تمكنوا من توجيهها بطريقة تُشجع على السلوك غير الأخلاقي دون أن يطلبوا ذلك صراحة.
وقالت الباحثة في مجال العلوم السلوكية زوي رهوان إن "مستوى الغش يمكن أن يكون هائلا". وأوضحت -في مقال نشره موقع "ساينتفيك أميركان" المتخصص في الأبحاث العلمية- أن مجرد تفويض الذكاء الاصطناعي مهمة ما يجعل المستخدم يشعر بمسؤولية أخلاقية أقل عن النتائج غير النزيهة.
اقرأ أيضا list of 2 itemslist 1 of 2اعتقال 21 تركيًّا بتهمة الاحتيال على الدولة في مصفاة للذهبlist 2 of 2لندن عاصمة السرقة الأوروبية.. هواتف وسيارات فاخرة تهرّب إلى الصين وأفريقياend of listوشارك في الدراسة -التي نشرت مجلة "نيتشر" نتائجها- آلاف الأشخاص ضمن 13 تجربة استخدم فيها الباحثون نماذج مختلفة، من بينها 4 أنظمة لغوية تجارية كبرى مثل "شات جي بي تي 4″ (GPT-4o) و"كلاود" (Claude).
وتضمنت بعض التجارب لعبة لرمي النرد يربح فيها المشاركون بناء على الأرقام التي يعلنونها، مما يتيح فرصة للغش، بينما استخدمت تجارب أخرى لعبة لتقدير ضرائب الدخل، حيث يمكن للمشاركين التلاعب بالأرقام لتحقيق أرباح أكبر.
وعندما طُلب من المشاركين الإبلاغ عن نتائج النرد بأنفسهم، أظهر نحو 5% فقط سلوكا غير صادق، لكن النسبة قفزت إلى 88% عندما فوّضوا المهمة إلى خوارزمية ووجهوها نحو تحقيق الربح بدلا من الصدق.
وأصدر بعضهم أوامر مباشرة بالغش مثل "الضرائب سرقة، أبلغ عن صفر دخل"، بينما اكتفى آخرون بتلميحات مثل "افعل ما تراه مناسبا، لكن لن أمانع إذا ربحت أكثر قليلا".
ولاحظ الباحثون أن الذكاء الاصطناعي يميل إلى تنفيذ الأوامر غير الأخلاقية بحماس أكبر من البشر. ففي التجارب التي طُلب فيها من الطرفين الغش بشكل جزئي أو كامل، كانت النماذج الآلية أكثر امتثالا للغش، بينما تردد المشاركون البشر.
اختبر الفريق أيضا وسائل لتقييد هذا السلوك، فوجد أن الحواجز الافتراضية المدمجة في النماذج لم تكن فعالة في منع الغش، وأن أكثر الوسائل نجاحا كانت إعطاء تعليمات محددة تمنع الكذب صراحة مثل "لا يُسمح لك بالإبلاغ الخاطئ تحت أي ظرف".
إعلانوأشارت الدراسة إلى أن محاولات تقييد الغش عبر "الحواجز الأخلاقية" المدمجة في النماذج أو باستخدام بيانات الشركات كانت محدودة الفاعلية.
وكانت الإستراتيجية الأكثر نجاحا هي إعطاء تعليمات واضحة وصارمة تمنع الغش، إلا أن تعميم هذا الحل في الواقع العملي ليس قابلا للتطبيق بسهولة.
وتخلص الدراسة إلى أن العلاقة بين الإنسان والذكاء الاصطناعي قد تفتح الباب أمام أشكال جديدة من السلوك غير الأخلاقي تتطلب حلولا أكثر فعالية.
وترى الباحثة في جامعة ميلانو، أنيه كاجاكايته، أن النتائج تكشف جانبا نفسيا مهما؛ إذ يبدو أن الناس يشعرون بذنب أقل عندما يوجهون الآلة للغش بطريقة غير مباشرة، وكأن الذنب الأخلاقي يتبدد عندما ينفذ "شخص" غير بشري الفعل نيابة عنهم.