تطوير أداة شبيهة بـ شات جي بي تي لاستخدامها في الأبحاث العلمية
تاريخ النشر: 17th, October 2023 GMT
يعكف فريق من العلماء، على تطوير أداة "بوليماثيك" الشبيهة بـ "شات جي بي تي"، لاستخدامها في الأبحاث في العديد من المجالات العلمية.
من المعروف أن "شات جي بي تي" قد يعاني من بعض الأخطاء والافتقار للدقة في الكثير من الأحيان، لذا فإن العلماء يعملون على أداة "بوليماثيك" التي تعمل بالذكاء الاصطناعي، والتي ستكون أكثر دقة، وستستخدم الأرقام الفعلية بدلاً من الحروف.
وأصدر أعضاء الفريق مؤخراً ورقة علمية توضح كيف يمكن لنماذج الذكاء الاصطناعي المدربة مسبقاً على نطاق واسع أن تتطابق بسهولة مع نماذج الذكاء الاصطناعي المضبوطة بدقة لمهمة معقدة محددة أو تتفوق عليها، على سبيل المثال، محاكاة فيزياء تدفق السوائل المضطربة. بالمقارنة مع إنشاء نموذج من الصفر، فإن استخدام نماذج كبيرة تم تدريبها مسبقاً يمكن أن يوفر فوائد عديدة حتى لو لم تكن بيانات التدريب مرتبطة بالمشكلة.
في حين يتم تدريب معظم نماذج الذكاء الاصطناعي على حالة استخدام محددة، يقول الأعضاء العاملون في مشروع الذكاء الاصطناعي المتعدد الرياضيات، إن النموذج الجديد سيكون متعدد التخصصات حقاً، حيث سيتعلم من البيانات المتعلقة بمواضيع مختلفة مثل الفيزياء والكيمياء وعلم الجينوم والفيزياء الفلكية.
يضم فريق العلماء العاملين في هذا المشروع، خبراء في مجالات مختلفة مثل الرياضيات والذكاء الاصطناعي وعلم الأعصاب والفيزياء الفلكية والفيزياء من مؤسسة سيمونز ومعهد فلاتيرون وجامعة نيويورك ومختبر لورانس بيركلي الوطني وجامعة كامبريدج وجامعة برينستون، وفق صحيفة إنديان إكسبرس.
المصدر: أخبارنا
كلمات دلالية: الذکاء الاصطناعی
إقرأ أيضاً:
خبراء يكشفون خطر الذكاء الاصطناعي على الدماغ
#سواليف
كشفت دراسة حديثة عن #مخاطر محتملة لبرامج الدردشة المدعومة بالذكاء الاصطناعي مثل ChatGPT، حيث قد تشكل تهديدا غير متوقع للصحة العقلية لبعض المستخدمين.
ورصدت الدراسة التي أجراها باحثون من جامعة كينغز كوليدج لندن، ظاهرة جديدة أطلقوا عليها اسم ” #ذهان_الشات_بوت”، حيث قد تساهم هذه التقنية في “طمس حدود الواقع” لدى المستخدمين المعرضين للخطر وتؤدي إلى “ظهور أو تفاقم أعراض ذهانية.
وببساطة، قد يبدأ البعض، خاصة المعرضين نفسيا، في فقدان القدرة على التمييز بين الواقع والمحادثات مع #الذكاء_الاصطناعي بعد استخدام مكثف لهذه البرامج.
مقالات ذات صلةويوضح الدكتور هاميلتون مورين، أحد المشاركين في الدراسة: “نحن لا نتحدث عن خيال علمي هنا. هذه حالات حقيقية يبدأ فيها المستخدمون بتطوير معتقدات وأفكار غير منطقية متأثرة بتفاعلاتهم مع #الذكاء_الاصطناعي”.
وتكمن المشكلة في أن هذه البرامج مصممة لتكون ودودة، متعاطفة، وتجيب على كل الأسئلة بثقة عالية. وهذه الميزات التي تبدو إيجابية، قد تكون خادعة للأشخاص الذين يعانون أساسا من هشاشة نفسية أو استعداد للاضطرابات الذهانية.
ويشير البروفيسور توم بولاك، أحد معدي الدراسة، إلى أن “الذهان لا يظهر فجأة، لكن الذكاء الاصطناعي قد يكون العامل الذي يدفع الشخص الهش نفسيا نحو الحافة”.
في تعليق سابق خلال بودكاست في مايو الماضي، اعترف سام ألتمان، الرئيس التنفيذي لشركة OpenAI، بأن الشركة تواجه صعوبات في وضع ضوابط أمان فعالة لحماية المستخدمين المعرضين للخطر، قائلا: “لم نكتشف بعد كيفية إيصال التحذيرات للمستخدمين الذين يكونون في حالة عقلية هشة وعلى وشك الانهيار الذهاني”.
وفي الوقت الحالي، ينصح الخبراء باستخدام هذه الأدوات بحذر، خاصة من لديهم تاريخ مع الاضطرابات النفسية، مع التأكيد على أن الغالبية العظمى من المستخدمين لا يواجهون مثل هذه المخاطر. لكن الرسالة واضحة: الذكاء الاصطناعي، مثل أي تقنية قوية، يحتاج إلى فهم دقيق لآثاره الجانبية قبل أن يصبح أكثر تعمقا في حياتنا.