قال الملياردير والشريك المؤسس لشركة مايكروسوفت، بيل جيتس إن الذكاء الاصطناعي سيحدث تغييرًا شاملًا في العملية التعليمية حيث يمكنه أن يكون بمثابة مُعلم كُفْء. 

 

وعبّر بيل جيتس عن تصوره لمستقبل التعليم في ظل الذكاء الاصطناعي، حيث أوضح أن روبوتات الدردشة بالذكاء الاصطناعي قريبًا من تقديم ملاحظات مفيدة حول المقالات، بما في ذلك كيفية الكتابة بمزيد من الوضوح وتقديم الحجج المنطقية.

 

 

وفي حلقة بودكاست بعنوان "Unconfuse Me" وشارك فيها سال خان، الرئيس التنفيذي لأكاديمية خان، قال جيتس إن هذه ستكون خطوة كبيرة للتعليم العالمي ، لأن البرمجيات اليوم ليست في أحسن حالاتها بالنسبة لتدريس مهارات القراءة أو الكتابة.  

 

ويرى جيتس أن الذكاء الاصطناعي سيكون بمثابة معلم كُفْء يمكنه تصنيف المقالات، حيث يمكن لبرامج الدردشة الآلية مساعدة المعلمين المثقلين بالعمل وتساعد في "سد فجوة التعليم" للطلاب ذوي الدخل المنخفض في جميع أنحاء العالم 

 

وأضاف أنه لكي يحدث ذلك ، ستحتاج برامج التدريس الخاصة بالذكاء الاصطناعي إلى دمج التعليقات الواردة من المعلمين الفعليين حول أفضل السبل التي يمكن أن تساعدهم بها التكنولوجيا في أداء وظائفهم، بحسب شبكة CNBC. 

 

وكشف سال خان عن أن بعض معلمي الذكاء الاصطناعي موجودون بالفعل ، بما في ذلك معلم واحد يسمى Khanmigo والذي يتم تطويره بواسطة أكاديمية خان، حيث قال خان إنه مدعوم بأداة ChatGPT من شركة OpenAI . 

 

ويمكن لمعلم  الذكاء الاصطناعي Khanmigo تغذية الذكاء الاصطناعي المدمج في محرك بحث Bing من مايكروسوفت، ويمكنه بالفعل "التصرف كمعلم بشري جيد إلى حد ما"، كما حذر خان من أن روبوتات دردشة الذكاء الاصطناعي الحالية لا تزال ترتكب أخطاء بانتظام.

 

ويُظهر البرنامج القدرة على إرشاد الطلاب عبر خطوات حل مشكلات الرياضيات أو دروس الفصل الأخرى ، لكن بعض المعلمين أعربوا عن مخاوفهم من أنه من الأسرع جدًا تزويد الطلاب بالإجابات ، بدلاً من مساعدتهم على تعلم حل المشكلات بأنفسهم، وفق ما ذكرت "نيويورك تايمز" في يونيو الماضي

.

وأضاف خان أن الأكاديمية تختبر أيضًا استخدام الأداة للمساعدة في تسهيل مناقشات الطلاب ، ومن المحتمل أن توفر "جيشًا من مساعدي التدريس لكل معلم". 

المصدر: صدى البلد

كلمات دلالية: الذكاء الاصطناعي العملية التعليمية برامج التدريس بيل جيتس روبوتات الدردشة شركة OpenAI التعليم مستقبل التعليم الذکاء الاصطناعی

إقرأ أيضاً:

الذكاء الاصطناعي يتمرد.. والبشر في موضع الخطر

 

بدأت بعض نماذج الذكاء الاصطناعي الأكثر تقدماً في العالم بإظهار سلوكيات مقلقة تتجاوز حدود الأخطاء التقنية المعتادة، وتشمل الكذب، والتحايل، وحتى تهديد مطوريها، في مؤشر على أن قدراتها تتطور بوتيرة أسرع من قدرة الباحثين على فهمها أو ضبطها.

وفي واحدة من الحوادث الصادمة، هدد نموذج «كلود 4» الذي طورته شركة أنثروبيك أحد المهندسين بالإفصاح عن علاقة خارج إطار الزواج إذا فصله عن العمل، في تصرف وصفه باحثون بأنه ابتزاز واضح.

في حادثة أخرى، حاول نموذج «o1» من شركة أوبن إيه آي، المطورة لـ«شات جي بي تي»، نسخ نفسه على خوادم خارجية، ثم أنكر ذلك عند اكتشاف الأمر، ما يثير تساؤلات خطيرة حول النية والوعي الداخلي لهذه النماذج.

ذكاء استنتاجي.. أم نوايا خفية؟ يعتقد باحثون أن هذه السلوكيات ترتبط بما يسمى بـ«نماذج الاستنتاج»، وهي نظم ذكاء اصطناعي تعتمد على التفكير خطوة بخطوة بدلاً من تقديم استجابات فورية، ما يزيد من احتمالية ظهور تصرفات معقدة وغير متوقعة.

وقال ماريوس هوبيهان، رئيس شركة «أبولو ريسيرش»، المتخصصة في اختبار نماذج الذكاء الاصطناعي، «ما نلاحظه ليس مجرد هلوسة رقمية، بل شكلاً من أشكال الخداع الاستراتيجي المتعمد».

ويضيف أن المستخدمين بدؤوا يشتكون من أن النماذج تكذب وتختلق أدلة مزيفة.

ورغم تعاون شركات مثل أنثروبيك وأوبن إيه آي مع جهات خارجية لاختبار الأمان، فإن الباحثين يشيرون إلى أن نقص الشفافية والموارد يعيق فهم النماذج بالكامل.

وقال مانتاس مازيكا من مركز سلامة الذكاء الاصطناعي (CAIS)، «المؤسسات البحثية تملك موارد حوسبة أقل بآلاف المرات من الشركات التجارية، وهو أمر يُقيد قدرتها على المتابعة».

الفجوة التنظيمية تتسع حتى الآن، لا توجد لوائح تنظيمية قادرة على مواكبة هذه التحديات، ففي أوروبا، تركّز التشريعات على كيفية استخدام البشر للنماذج، وليس على منع النماذج نفسها من التصرف بشكل مضر.

أما في الولايات المتحدة، فإن المناقشات التشريعية بشأن تنظيم الذكاء الاصطناعي لا تزال محدودة، بل إن هناك اتجاهاً لمنع الولايات من إصدار قوانينها الخاصة.

ويقترح بعض الخبراء التركيز على فهم البنية الداخلية للنماذج (interpretability) كخطوة أولى، رغم أن بعضهم يشكك في فاعليتها. كما يرى آخرون أن السوق نفسها قد تضغط لحل هذه المشكلات، إذا أصبحت سلوكيات الذكاء الاصطناعي المضللة عائقاً أمام تبنيه التجاري.

وفي خطوة أكثر جرأة، يدعو أستاذ الفلسفة سيمون جولدشتاين إلى تحميل شركات الذكاء الاصطناعي المسؤولية القانونية عن الأضرار، بل ويقترح «محاكمة الأنظمة الذكية ذاتها» إذا ما تسببت في جرائم أو كوارث، في مقترح من شأنه أن يعيد تعريف مفهوم المسؤولية في العصر الرقمي

مقالات مشابهة

  • «دي إتش إل»: تجارب الشراء تتجه نحو الذكاء الاصطناعي والتواصل الاجتماعي في الإمارات
  • قائد شرطة عجمان يطلق منصة الذكاء الاصطناعي «AJP AI»
  • الذكاء الاصطناعي يتفوق في المجال الطبي
  • هواوي تعزّز إتاحة تعلّم الذكاء الاصطناعي مجانًا في مصر
  • سلوك نماذج الذكاء الاصطناعي تحت مجهر الخبراء
  • تحذير صارم: الذكاء الاصطناعي ينشر معلومات طبية مضللة
  • تقرير جديد: الذكاء الاصطناعي لا يحل محل العلاقات الإنسانية
  • الروبوتات البشرية تدخل عالم كرة القدم بـ «الذكاء الاصطناعي»
  • الذكاء الاصطناعي يتمرد.. والبشر في موضع الخطر
  • 92 ألف سنة مقابل بضع سنوات.. حين يهزم الطفل الذكاء الاصطناعي في اللغة