الذكاء الاصطناعي في طريقه ليصبح أذكى من البشر.. فما مصيرنا؟
تاريخ النشر: 9th, April 2024 GMT
نعيش في عالم تزداد فيه سيطرة الذكاء الاصطناعي على حياتنا يومًا تلو الآخر، الأمر الذي جعل الرئيس التنفيذي لشركة تسلا "إيلون ماسك " يتوقع بأن الذكاء الاصطناعي المطور سيكون أكثر ذكاءً من أذكى إنسان ربما بحلول العام المقبل، أو بحلول عام 2026.
وقد دخل ماسك إلى سوق الذكاء الاصطناعي بشركة منافسة، فقال خلال لقاء له وعبر حسابه على إكس:" أن الذكاء الاصطناعي كان مقيدًا بتوفر الكهرباء وأن الإصدار التالي من Grok، برنامج الدردشة الآلي الذي يعمل بالذكاءالاصطناعي من شركته الناشئة xAI، كان ومن المتوقع أن يتم تدريبه بحلول شهر مايو".
وأضاف ماسك عندما سئل عن الجدول الزمني لتطوير AGI: "إذا قمت بتعريف AGI الذكاء العام الاصطناعي فهو أكثر ذكاءً من أذكى إنسان، وأعتقد أنه من المحتمل أن يكون ذلك في العام المقبل، أو في غضون عامين".
وأكمل الملياردير، الذي شارك أيضًا في تأسيس OpenAI، إن الافتقار إلى الرقائق المتقدمة يعيق تدريب نموذج الإصدار الثاني من Grok.
أسس ماسك شركة xAI العام الماضي كمنافس لشركة OpenAI، التي رفع دعوى قضائية ضدها لتخليها عن مهمتها الأصلية لتطويرالذكاء الاصطناعي لصالح البشرية وليس من أجل الربح، وتنفي OpenAI هذه المزاعم.
وقال ماسك إن تدريب نموذج Grok 2 استغرق حوالي 20 ألف شريحة Nvidia (NVDA.O)، ويفتح علامة تبويب جديدة لوحدات معالجةالرسوميات H100، مضيفًا أن نموذج Grok 3 وما بعده سيتطلب 100000 شريحة Nvidia H100.
لكنه أضاف أنه على الرغم من أن النقص في الرقائق كان عائقًا كبيرًا أمام تطوير الذكاء الاصطناعي حتى الآن، إلا أن إمدادات الكهرباءستكون حاسمة في العام أو العامين المقبلين.
وفي حديثه عن السيارات الكهربائية، أكد ماسك أن شركات صناعة السيارات الصينية هي "الأكثر قدرة على المنافسة في العالم" وتشكل أصعب التحديات التنافسية لشركة تسلا.
المصدر: صدى البلد
كلمات دلالية: الذکاء الاصطناعی
إقرأ أيضاً:
خبراء يكشفون خطر الذكاء الاصطناعي على الدماغ
#سواليف
كشفت دراسة حديثة عن #مخاطر محتملة لبرامج الدردشة المدعومة بالذكاء الاصطناعي مثل ChatGPT، حيث قد تشكل تهديدا غير متوقع للصحة العقلية لبعض المستخدمين.
ورصدت الدراسة التي أجراها باحثون من جامعة كينغز كوليدج لندن، ظاهرة جديدة أطلقوا عليها اسم ” #ذهان_الشات_بوت”، حيث قد تساهم هذه التقنية في “طمس حدود الواقع” لدى المستخدمين المعرضين للخطر وتؤدي إلى “ظهور أو تفاقم أعراض ذهانية.
وببساطة، قد يبدأ البعض، خاصة المعرضين نفسيا، في فقدان القدرة على التمييز بين الواقع والمحادثات مع #الذكاء_الاصطناعي بعد استخدام مكثف لهذه البرامج.
مقالات ذات صلةويوضح الدكتور هاميلتون مورين، أحد المشاركين في الدراسة: “نحن لا نتحدث عن خيال علمي هنا. هذه حالات حقيقية يبدأ فيها المستخدمون بتطوير معتقدات وأفكار غير منطقية متأثرة بتفاعلاتهم مع #الذكاء_الاصطناعي”.
وتكمن المشكلة في أن هذه البرامج مصممة لتكون ودودة، متعاطفة، وتجيب على كل الأسئلة بثقة عالية. وهذه الميزات التي تبدو إيجابية، قد تكون خادعة للأشخاص الذين يعانون أساسا من هشاشة نفسية أو استعداد للاضطرابات الذهانية.
ويشير البروفيسور توم بولاك، أحد معدي الدراسة، إلى أن “الذهان لا يظهر فجأة، لكن الذكاء الاصطناعي قد يكون العامل الذي يدفع الشخص الهش نفسيا نحو الحافة”.
في تعليق سابق خلال بودكاست في مايو الماضي، اعترف سام ألتمان، الرئيس التنفيذي لشركة OpenAI، بأن الشركة تواجه صعوبات في وضع ضوابط أمان فعالة لحماية المستخدمين المعرضين للخطر، قائلا: “لم نكتشف بعد كيفية إيصال التحذيرات للمستخدمين الذين يكونون في حالة عقلية هشة وعلى وشك الانهيار الذهاني”.
وفي الوقت الحالي، ينصح الخبراء باستخدام هذه الأدوات بحذر، خاصة من لديهم تاريخ مع الاضطرابات النفسية، مع التأكيد على أن الغالبية العظمى من المستخدمين لا يواجهون مثل هذه المخاطر. لكن الرسالة واضحة: الذكاء الاصطناعي، مثل أي تقنية قوية، يحتاج إلى فهم دقيق لآثاره الجانبية قبل أن يصبح أكثر تعمقا في حياتنا.