الذكاء الاصطناعي يطور أساليب التدريس
تاريخ النشر: 20th, November 2024 GMT
دبي: «الخليج»
سلطت قمة المعرفة 2024، في يومها الثاني، الضوء على مجموعة من المحاور المرتبطة باستراتيجيات الذكاء الاصطناعي، وأحدث أدوات الابتكار في قطاع التعليم، والمهارات التي تحتاج إليها الأجيال القادمة.
ناقشت جلسة «التخصص في قيادة واستراتيجيات الذكاء الاصطناعي التوليدي» التي قدمتها البروفسورة باربرا أوكلي، أستاذة الهندسة في جامعة أوكلاند، الإمكانات الثورية التي يقدمها الذكاء الاصطناعي التوليدي في قطاع التعليم، حيث استعرضت الأساليب التي يمكن من خلالها للنماذج اللغوية الضخمة، مثل Chat GPT، إحداث تحول جذري في طرق تقديم المحتوى التعليمي، موضحة أن هذه النماذج قادرة على تصميم محتوى مخصص يتناسب مع احتياجات كل متعلم، ما يسهم في رفع مستوى الاستيعاب والتفاعل داخل الفصول الدراسية.
وأشارت إلى التطبيقات العملية لأدوات الذكاء الاصطناعي في تطوير أساليب التدريس، مثل إنشاء دروس افتراضية تفاعلية.
وسلّطت جلسة «ما بعد المؤهلات التقليدية: الابتكار في التعليم فوق الثانوي» التي شاركت فيها الدكتورة ديما جمالي، نائبة رئيس الجامعة الكندية في دبي، وناريمان حاج حمو، المديرة التنفيذية لمركز كليكس، وجين مان، المديرة الإدارية للشراكات التعليمية في كلية كامبردج الدولية، وأدارها زاهر سرور، رئيس قسم الشراكات في كورسيرا - الشرق الأوسط وإفريقيا، الضوء على حاجة التعليم فوق الثانوي إلى تبني نماذج تعليمية مبتكرة تستجيب للمتغيرات المتسارعة في سوق العمل العالمي.
المصدر: صحيفة الخليج
كلمات دلالية: فيديوهات التعليم الذكاء الاصطناعي الذکاء الاصطناعی
إقرأ أيضاً:
خبراء يكشفون خطر الذكاء الاصطناعي على الدماغ
#سواليف
كشفت دراسة حديثة عن #مخاطر محتملة لبرامج الدردشة المدعومة بالذكاء الاصطناعي مثل ChatGPT، حيث قد تشكل تهديدا غير متوقع للصحة العقلية لبعض المستخدمين.
ورصدت الدراسة التي أجراها باحثون من جامعة كينغز كوليدج لندن، ظاهرة جديدة أطلقوا عليها اسم ” #ذهان_الشات_بوت”، حيث قد تساهم هذه التقنية في “طمس حدود الواقع” لدى المستخدمين المعرضين للخطر وتؤدي إلى “ظهور أو تفاقم أعراض ذهانية.
وببساطة، قد يبدأ البعض، خاصة المعرضين نفسيا، في فقدان القدرة على التمييز بين الواقع والمحادثات مع #الذكاء_الاصطناعي بعد استخدام مكثف لهذه البرامج.
مقالات ذات صلةويوضح الدكتور هاميلتون مورين، أحد المشاركين في الدراسة: “نحن لا نتحدث عن خيال علمي هنا. هذه حالات حقيقية يبدأ فيها المستخدمون بتطوير معتقدات وأفكار غير منطقية متأثرة بتفاعلاتهم مع #الذكاء_الاصطناعي”.
وتكمن المشكلة في أن هذه البرامج مصممة لتكون ودودة، متعاطفة، وتجيب على كل الأسئلة بثقة عالية. وهذه الميزات التي تبدو إيجابية، قد تكون خادعة للأشخاص الذين يعانون أساسا من هشاشة نفسية أو استعداد للاضطرابات الذهانية.
ويشير البروفيسور توم بولاك، أحد معدي الدراسة، إلى أن “الذهان لا يظهر فجأة، لكن الذكاء الاصطناعي قد يكون العامل الذي يدفع الشخص الهش نفسيا نحو الحافة”.
في تعليق سابق خلال بودكاست في مايو الماضي، اعترف سام ألتمان، الرئيس التنفيذي لشركة OpenAI، بأن الشركة تواجه صعوبات في وضع ضوابط أمان فعالة لحماية المستخدمين المعرضين للخطر، قائلا: “لم نكتشف بعد كيفية إيصال التحذيرات للمستخدمين الذين يكونون في حالة عقلية هشة وعلى وشك الانهيار الذهاني”.
وفي الوقت الحالي، ينصح الخبراء باستخدام هذه الأدوات بحذر، خاصة من لديهم تاريخ مع الاضطرابات النفسية، مع التأكيد على أن الغالبية العظمى من المستخدمين لا يواجهون مثل هذه المخاطر. لكن الرسالة واضحة: الذكاء الاصطناعي، مثل أي تقنية قوية، يحتاج إلى فهم دقيق لآثاره الجانبية قبل أن يصبح أكثر تعمقا في حياتنا.