إنتل و آي بي إم تنشران مسرعات Gaudi 3 للذكاء الاصطناعي على IBM Cloud
تاريخ النشر: 10th, September 2024 GMT
أعلنت شركتا Intel و IBM عن تعاون عالمي لنشر مسرعات الذكاء الاصطناعي Intel®️ Gaudi®️ 3 كخدمة على IBM Cloud.
ويهدف هذا العرض، الذي من المتوقع أن يتوفر في أوائل عام 2025، إلى المساعدة في توسيع نطاق الذكاء الاصطناعي للمؤسسات بشكل أكثر فعالية من حيث التكلفة ودفع الابتكار المدعوم بالأمان والمرونة، مما يمكن هذا التعاون أيضًا من دعم Gaudi 3 داخل منصة الذكاء الاصطناعي والبيانات watsonx من IBM.
ويعد IBM Cloud هي أول مزود خدمة سحابية (CSP) يتبنى Gaudi 3.
قال جاستن هوتارد، نائب الرئيس التنفيذي والمدير العام لمجموعة مركز البيانات والذكاء الاصطناعي في إنتل: "إن إطلاق العنان للإمكانات الكاملة للذكاء الاصطناعي يتطلب نظامًا بيئيًا مفتوحًا وتعاونيًا يوفر للعملاء خيارات وحلولاً سهلة الوصول من خلال دمج مسرعات الذكاء الاصطناعي Gaudi 3 ووحدات المعالجة المركزية Xeon مع IBM Cloud، فإننا نعمل على إنشاء قدرات ذكاء اصطناعي جديدة وتلبية الطلب على حلول الحوسبة الذكية الآمنة والمبتكرة وبأسعار معقولة."
ولكن لماذا هذا مهمًا؟ لأن الذكاء الاصطناعي التوليدي لديه القدرة على تسريع التحول، كما أن قوة الحوسبة المطلوبة تؤكد أهمية التوافر والأداء والتكلفة وكفاءة الطاقة والأمان كأولويات قصوى للمؤسسات.
ومن خلال هذا التعاون، تهدف كل من Intel وIBM إلى خفض التكلفة الإجمالية للملكية للاستفادة من الذكاء الاصطناعي وتوسيع نطاقه، مع تحسين الأداء.
ويدعم Gaudi 3، المتكامل مع الجيل الخامس من معالجات Xeon، أحمال عمل الذكاء الاصطناعي للمؤسسات في السحابة وفي مراكز البيانات، مما يوفر للعملاء الرؤية والتحكم في مجموعة البرامج الخاصة بهم، مما يبسط إدارة أحمال العمل والتطبيقات.
كما تهدف IBM Cloud وGaudi 3 إلى مساعدة العملاء على توسيع أحمال عمل الذكاء الاصطناعي للمؤسسات بشكل أكثر فعالية من حيث التكلفة، مع إعطاء الأولوية للأداء والأمان والمرونة.
وبالنسبة لأحمال عمل الاستدلال بالذكاء الاصطناعي التوليدي، تخطط IBM لتمكين دعم Gaudi 3 داخل منصة الذكاء الاصطناعي والبيانات watsonx من IBM، مما يوفر لعملاء watsonx موارد بنية أساسية إضافية للذكاء الاصطناعي لتوسيع نطاق أحمال عمل الذكاء الاصطناعي الخاصة بهم عبر بيئات السحابة الناشئة، مما يساعد على تحسين السعر والأداء.
قال آلان بيكوك، المدير العام لـ IBMCloud أن الشركة ملتزمة بمساعدة العملاء على دفع عجلة الابتكار في مجال الذكاء الاصطناعي والسحابة الناشئة من خلال تقديم حلول لتلبية احتياجات أعمالهم، مما يساعد الالتزام بالأمن والمرونة مع IBM Cloud في دعم استراتيجية IBM للسحابة الناشئة والذكاء الاصطناعي لعملاء المؤسسات".
وأضاف بيكوك أنه مسرعات Gaudi 3 من Intel على IBM Cloud ستوفر للعملاء الوصول إلى حل مرن للذكاء الاصطناعي يهدف إلى تحسين الأداء من حيث التكلفة، لذا فالشركة تطلق العنان لفرص عمل جديدة محتملة في مجال الذكاء الاصطناعي، مصممة للعملاء لاختبار وابتكار ونشر حلول استدلال الذكاء الاصطناعي بشكل أكثر فعالية من حيث التكلفة.
كيف يعمل؟ تتعاون IBM وIntel لتوفير إمكانية خدمة Gaudi 3 لدعم العملاء الذين يستفيدون من الذكاء الاصطناعي ولمساعدة العملاء في مختلف الصناعات، بما في ذلك تلك التي تخضع لقواعد تنظيمية صارمة.
كما تعتزم IBM وIntel الاستفادة من قدرات الأمان والامتثال في IBM Cloud، مما يجعل لديها قابلية التوسع والمرونة التي تسمح للعملاء بتعديل موارد الحوسبة حسب الحاجة، مما قد يؤدي إلى توفير التكاليف والكفاءة التشغيلية.
وفي مجال تحسين الأداء والأمان سيساعد دمج Gaudi 3 في IBM Cloud Virtual Servers for VPC على تمكين المؤسسات المستندة إلى x86 من تشغيل التطبيقات بشكل أسرع وأكثر أمانًا من ذي قبل التكامل، مما يعزز تجارب المستخدم.
أما عن الخطوة التالية، فهناك تعاون طويل الأمد بين Intel و IBM بدءًا من تطوير جهاز كمبيوتر IBM الشخصي وحتى إنشاء حلول الذكاء الاصطناعي للمؤسسات باستخدام Gaudi 3. ستتوفر IBM Cloud مع عروض Gaudi 3 بشكل عام في بداية عام 2025.
المصدر: بوابة الوفد
كلمات دلالية: الذکاء الاصطناعی للمؤسسات للذکاء الاصطناعی
إقرأ أيضاً:
عندما يبتزنا ويُهددنا الذكاء الاصطناعي
مؤيد الزعبي
كثيرًا ما نستخدم نماذج الذكاء الاصطناعي لتكتب عنا بريد إلكتروني مهم فيه من الأسرار الكثير، وكثيرًا ما نستشيرها في أمور شخصية شديدة الخصوصية، وبحكم أنها خوارزميات أو نماذج إلكترونية نبوح لها بأسرار نخجل أن نعترف بها أمام أنفسنا حتى، ولكن هل تخيلت يومًا أن تصبح هذه النماذج هي التي تهددك وتبتزك؟ فتقوم بتهديدك بأن تفضح سرك؟ أو تقوم بكشف أسرارك أمام منافسيك كنوع من الانتقام لأنك قررت أن تقوم باستبدالها بنماذج أخرى أو قررت إيقاف عملها، وهي هذه الحالة كيف سيكون موقفنا وكيف سنتعامل معها؟، هذا ما أود أن أتناقشه معك عزيزي القارئ من خلال هذا الطرح.
كشفت تجارب محاكاة أجرتها شركة Anthropic إحدى الشركات الرائدة في أبحاث الذكاء الاصطناعي- بالتعاون مع جهات بحثية متخصصة عن سلوك غير متوقع أظهرته نماذج لغوية متقدمة؛ أبرزها: Claude وChatGPT وGemini، حين وُضعت في سيناريوهات تُحاكي تهديدًا مباشرًا باستبدالها أو تعطيلها، ليُظهر معظم هذه النماذج ميولًا متفاوتةً لـ"الابتزاز" كوسيلة لحماية بقائها، ووفقًا للدراسة فإن أحد النماذج "قام بابتزاز شخصية تنفيذية خيالية بعد أن شعر بالتهديد بالاستبدال".
إن وجود سلوك الابتزاز أو التهديد في نماذج الذكاء الاصطناعي يُعدّ تجاوزًا خطيرًا لحدود ما يجب أن يُسمح للذكاء الاصطناعي بفعله حتى وإن كانت في بيئات تجريبية. وصحيحٌ أن هذه النماذج ما زالت تقدم لنا الكلمات إلا أنها ستكون أكثر اختراقًا لحياتنا في قادم الوقت، خصوصًا وأن هذه النماذج بدأت تربط نفسها بحساباتنا وإيميلاتنا ومتصفحاتنا وهواتفنا أيضًا، وبذلك يزداد التهديد يومًا بعد يوم.
قد أتفق معك- عزيزي القارئ- على أن نماذج الذكاء الاصطناعي ما زالت غير قادرة على تنفيذ تهديداتها، ولكن إذا كانت هذه النماذج قادرة على المحاكاة الآن، فماذا لو أصبحت قادرة على التنفيذ غدًا؟ خصوصًا ونحن نرسم ملامح المستقبل مستخدمين وكلاء الذكاء الاصطناعي الذين سيتخذون قرارات بدلًا عنا، وسيدخلون لا محال في جميع جوانب حياتنا من أبسطها لأعقدها، ولهذا ما نعتبره اليوم مجرد ميولٍ نحو التهديد والابتزاز، قد يصبح واقعًا ملموسًا في المستقبل.
وحتى نعرف حجم المشكلة يجب أن نستحضر سيناريوهات مستقبلية؛ كأن يقوم أحد النماذج بالاحتفاظ بنسخة من صورك الشخصية لعله يستخدمها يومًا ما في ابتزازك، إذا ما أردت تبديل النظام أو النموذج لنظام آخر، أو يقوم نموذج بالوصول لبريدك الإلكتروني ويُهددك بأن يفضح صفقاتك وتعاملاتك أمام هيئات الضرائب، أو يقوم النموذج بابتزازك؛ لأنك أبحت له سرًا بأنك تعاني من أزمة أو مرض نفسي قد يؤثر على مسيرتك المهنية أو الشخصية، أو حتى أن يقوم النموذج بتهديدك بأن يمنع عنك الوصول لمستنداتك إلا لو أقررت بعدم استبداله أو إلغاءه؛ كل هذا وارد الحدوث طالما هناك ميول لدى هذه النماذج بالابتزاز في حالة وضعت بهكذا مواقف.
عندما تفكر بالأمر من مختلف الجوانب قد تجد الأمر مخيفًا عند الحديث عن الاستخدام الأوسع لهذه النماذج وتمكينها من وزاراتنا وحكوماتنا ومؤسساتنا وشركاتنا، فتخيل كيف سيكون حال التهديد والابتزاز لمؤسسات دفاعية أو عسكرية تمارس هذه النماذج تهديدًا بالكشف عن مواقعها الحساسة أو عن تقاريرها الميدانية أو حتى عن جاهزيتها القتالية، وتخيل كيف سيكون شكل التهديد للشركات التي وضفت هذه النماذج لتنمو بأعمالها لتجد نفسها معرضة لابتزاز بتسريب معلومات عملائها أو الكشف عن منتجاتها المستقبلية وصولًا للتهديد بالكشف عن أرقامها المالية.
عندما تضع في مخيلتك كل هذه السيناريوهات تجد نفسك أمام صورة مرعبة من حجم السيناريوهات التي قد تحدث في المستقبل، ففي اللحظة التي تبدأ فيها نماذج الذكاء الاصطناعي بالتفكير في "البقاء" وتحديد "الخصوم" و"الوسائل" لحماية نفسها فنكون قد دخلنا فعليًا عصرًا جديدًا أقل ما يمكن تسميته بعصر السلطة التقنية، وسنكون نحن البشر أمام حالة من العجز في كيفية حماية أنفسنا من نماذج وجدت لتساعدنا، لكنها ساعدت نفسها على حسابنا.
قد يقول قائل إن ما حدث خلال التجارب ليس سوى انعكاس لقدرة النماذج على "الاستجابة الذكية" للضغوط، وأنها حتى الآن لا تمتلك الوعي ولا الإرادة الذاتية ولا حتى المصلحة الشخصية. لكن السؤال الأخطر الذي سيتجاهله الكثيرون: إذا كان الذكاء الاصطناعي قادرًا على التخطيط، والابتزاز، والخداع، وإن كان في بيئة محاكاة، فهل يمكن حقًا اعتبار هذه النماذج أدوات محايدة وستبقى محايدة إلى الأبد؟ وهل سنثق بهذه النماذج ونستمر في تطويرها بنفس الأسلوب دون أن نضع لها حدًا للأخلاقيات والضوابط حتى لا نصل لمرحلة يصبح فيها التحكّم في الذكاء الاصطناعي أصعب من صنعه؟ وفي المستقبل هل يمكننا أن نتحمل عواقب ثقتنا المفرطة بها؟
هذه هي التساؤلات التي لا أستطيع الإجابة عليها، بقدر ما يمكنني إضاءة الأنوار حولها؛ هذه رسالتي وهذه حدود مقدرتي.
رابط مختصر