وضع الدراسة في ChatGPT.. بديلا للمدرسين بالذكاء الاصطناعي بين يدي الطلاب
تاريخ النشر: 30th, July 2025 GMT
أعلنت شركة OpenAI، عن إطلاق ميزة جديدة داخل تطبيق ChatGPT تحت اسم "وضع الدراسة" Study Mode، تهدف إلى مساعدة الطلاب على تنمية مهارات التفكير النقدي بدلا من الاكتفاء بالحصول على الإجابات الجاهزة.
مع تفعيل هذه الميزة، سيقوم ChatGPT بطرح أسئلة على الطالب لاختبار مدى فهمه، وفي بعض الحالات يرفض تقديم إجابة مباشرة ما لم يتفاعل الطالب مع المحتوى ويحاول التفكير فيه.
تظهر الميزة الجديدة للمستخدمين المشتركين في خطط ChatGPT المجانية والمدفوعة Plusو Pro و Team، ومن المتوقع أن تصل خلال الأسابيع المقبلة إلى المشتركين في خطة ChatGPT Edu، والتي تستخدم عادة في المدارس التي اشترت تراخيص شاملة لطلابها.
تأتي هذه الخطوة من OpenAI في إطار سعيها لمعالجة التحديات التي ظهرت مع الاستخدام المتزايد لـ ChatGPT في المؤسسات التعليمية.
فرغم أن دراسات عدة أثبتت أن الذكاء الاصطناعي يمكن أن يلعب دورا فعالا كـ مساعد تعليمي، إلا أن الأبحاث أظهرت أيضا أن الاعتماد المفرط عليه، خاصة في كتابة المقالات، قد يضعف النشاط الذهني للطلاب مقارنة باستخدام أدوات تقليدية مثل البحث في جوجل أو الدراسة الذاتية.
ومنذ إطلاق ChatGPT في عام 2022، واجهت المدارس تحديا في كيفية التعامل مع هذه التكنولوجيا الجديدة، ففي البداية، فرضت بعض المناطق التعليمية في الولايات المتحدة حظرا على استخدام الذكاء الاصطناعي التوليدي، إلا أن العديد منها عاد لاحقا ورفع القيود بعد أن أصبح من الواضح أن الذكاء الاصطناعي سيكون جزءا لا يتجزأ من حياة الطلاب.
ميزة محفزة لكنها غير ملزمةورغم الطابع التعليمي الإيجابي لهذه الميزة، إلا أن فعاليتها تعتمد بشكل كبير على رغبة الطالب الحقيقية في التعلم، فليس هناك حتى الآن آلية تمنع الطالب من التحول إلى الوضع العادي في ChatGPT إذا أراد الحصول على إجابة سريعة دون المرور بمرحلة التفكير أو التفاعل.
وأكدت ليا بلسكي، نائبة رئيس قسم التعليم في OpenAI، أن الشركة لا توفر حاليا أدوات تتيح للوالدين أو المشرفين قفل "وضع الدراسة"، لكنها لم تستبعد إمكانية توفير مثل هذه الخيارات مستقبلا.
تعد "وضع الدراسة" الخطوة الأولى من OpenAI لتحسين دور الذكاء الاصطناعي كأداة تعليمية حقيقية، بدلا من كونه مجرد مصدر سريع للإجابات.
يذكر أن شركة Anthropic أطلقت ميزة مشابهة في أبريل الماضي تحت اسم Learning Mode ضمن مساعدها الذكي "Claude".
وتؤكد OpenAI أنها تخطط لنشر مزيد من المعلومات لاحقا حول كيفية استخدام الطلاب للذكاء الاصطناعي التوليدي في مختلف المراحل التعليمية، بهدف تطوير أدوات تعليمية أكثر تأثيرا وفعالية في المستقبل.
المصدر: صدى البلد
كلمات دلالية: ميزة جديدة وضع الدراسة الذكاء الاصطناعي الذکاء الاصطناعی وضع الدراسة
إقرأ أيضاً:
الجدل الاقتصادي في شأن الذكاء الاصطناعي (2/5)
عبيدلي العبيدلي
خبير إعلامي
إذا كانت مواقف المؤيدين والمعارضين تتركز على الوظائف أو الكفاءة أو الاحتكار، فإن الجدل الاقتصادي الأعمق يدور حول قضايا بنيوية تمس طبيعة النظام الاقتصادي ذاته، ومفاهيم أساسية كالتوزيع، والملكية، والعدالة، والدخل، والقيمة. في هذا القسم، نسلط الضوء على أبرز هذه الإشكاليات التي أصبحت مركزية في تقييم الذكاء الاصطناعي اقتصاديًا.
توزيع الثروة: هل الذكاء الاصطناعي يُعيد إنتاج اللامساواة؟السؤال الجوهري الذي يطرحه النقاد هو: من المستفيد الحقيقي من القيمة الاقتصادية التي يُنتجها الذكاء الاصطناعي؟ بينما تعد الشركات والمجتمعات بتحقيق مكاسب كبيرة من استخدام الذكاء الاصطناعي، فإن المؤشرات الواقعية تظهر أن هذه المكاسب تذهب أساسًا إلى فئة محدودة من ملاك رؤوس الأموال الرقمية، أي الذين يملكون الخوارزميات والبنى التحتية والبيانات.
تشير دراسة لمعهد ماكينزي (2022) إلى أن 90% من القيمة السوقية للذكاء الاصطناعي تتركز في 10% فقط من الشركات. وهذا يُعيد إنتاج نمط اقتصادي يقوم على التركز والاحتكار، ويُفاقم من فجوة الدخل داخل الدول وفيما بينها. في السياق ذاته، فإن الدول النامية التي لا تملك بنية تحتية رقمية متقدمة، ولا القدرة على تطوير نماذجها الخاصة، تجد نفسها خارج دائرة التراكم الرقمي.
ملكية البيانات: من يملك "النفط الجديد"؟
البيانات، في عالم الذكاء الاصطناعي، هي المادة الخام الأساسية. فكل خوارزمية تحتاج إلى تغذية مستمرة بالبيانات لتعمل وتتعلّم. والسؤال الذي يُطرح هنا: من يمتلك هذه البيانات؟ هل هو الفرد الذي يُنتجها من خلال استخدامه اليومي للتكنولوجيا؟ أم الشركات التي تجمعها وتحللها وتُحولها إلى أدوات تجارية؟
يُطالب عدد متزايد من المفكرين بضرورة الاعتراف بـ "حقوق ملكية البيانات الشخصية"، بمعنى أن الأفراد يجب أن يملكوا حق تقرير المصير بشأن بياناتهم، وأن يحصلوا على مقابل مالي مقابل استخدام شركات الذكاء الاصطناعي لتلك البيانات. هذا الطرح يُعيد طرح سؤال العدالة في الاقتصاد الرقمي: لا يمكن السماح بأن تُبنى مليارات الدولارات من الأرباح على بيانات الناس دون موافقتهم أو عائد عادل لهم.
الضرائب على الذكاء الاصطناعي: هل يجب أن تُعوّض الآلة الإنسان؟من أكثر الطروحات المثيرة للجدل ما طرحه بيل غيتس في عام 2017 حول فرض "ضريبة على الروبوتات". الفكرة تنطلق من فرضية أن الآلة التي تحل محل العامل البشري يجب أن تُعامل اقتصاديًا كما لو كانت موظفًا، وبالتالي يجب على الشركات التي تستخدمها أن تدفع مقابل ذلك لصندوق اجتماعي يُموّل برامج تدريب وإعادة تأهيل، أو يُستخدم لتوفير دخل أساسي للمواطنين المتضررين.
لكن معارضي هذه الفكرة يرون فيها عائقًا أمام الابتكار، ومحاولة لإبطاء التقدم التكنولوجي باسم العدالة. ويكمن التحدي في إيجاد معادلة ضريبية لا تُعيق الشركات الصغيرة عن استخدام التكنولوجيا، ولا تُشجع الاحتكار، بل تُعيد توزيع الأرباح المتولدة بطريقة عادلة.
مستقبل سوق العمل: من الوظيفة إلى المهارةفي ظل انتشار الذكاء الاصطناعي، لم يعد سوق العمل قائمًا على الوظائف الثابتة، بل على تجزئة المهارات. المفهوم الكلاسيكي للوظيفة كعقد طويل الأمد بين العامل والمؤسسة يفقد أهميته تدريجيًا، ويحل محله مفهوم العمل حسب الطلب (Gig Economy)، والعمل الحر عبر المنصات، والعمل المعتمد على المهارة الرقمية القابلة للتداول.
هذا التحول يحمل فرصًا (مثل المرونة) لكنه في المقابل يُضعف الاستقرار الاقتصادي للفرد، ويخلق طبقة "عمال رقميين بلا حماية"، لا يتمتعون بتأمين اجتماعي أو حقوق نقابية. وهنا يُطرح السؤال: هل سيبقى الاقتصاد يعمل وفق منطق "من يعمل، يحصل"، أم أن التحولات التقنية تستدعي إعادة النظر في العلاقة بين العمل والدخل؟
العدالة الجيلية والانتقال الرقميأخيرًا، من أكبر التحديات التي تُطرح في سياق الذكاء الاصطناعي هي العدالة بين الأجيال. فبينما يُجبر الجيل الحالي من العمال على التكيّف السريع مع أدوات جديدة، فإن النظم التعليمية في كثير من الدول لا تزال عاجزة عن إعداد الجيل القادم للتعامل مع هذا الواقع. يُظهر تقرير لليونسكو (2023) أن أقل من 25% من المدارس في الدول منخفضة الدخل تُوفر تعليمًا رقميًا كافيًا.
هذا يعني أن الذكاء الاصطناعي لا يهدد فقط التوازن الطبقي الحالي، بل ينذر بتعميق الفجوة بين جيل متمكن رقميًا وآخر مُهمش معرفيًا. وإذا لم يتم التعامل مع هذا التحدي بنظرة طويلة المدى، فقد نفقد أجيالًا كاملة من الفرص الاقتصادية المستقبلية.
الذكاء الاصطناعي في التطبيق الواقعي
النقاش النظري حول الذكاء الاصطناعي لا يكتمل دون العودة إلى الوقائع الفعلية التي تُجسد تأثيراته على الاقتصاد والمجتمع. في هذا القسم، نستعرض حالات واقعية من دول ومؤسسات وشركات دولية تُبيّن كيف يمكن للذكاء الاصطناعي أن يكون قوة بناءة أو مدمّرة، حسب السياق السياسي والاجتماعي والتنظيمي الذي يُحيط به.
نماذج إيجابية لاستخدام الذكاء الاصطناعي في الاقتصاد
سنغافورة – استراتيجية وطنية لذكاء اصطناعي متمركز حول الإنسانمنذ عام 2018، أطلقت سنغافورة مبادرة “AI Singapore” لتطوير تطبيقات الذكاء الاصطناعي في القطاعات الحكومية والاقتصادية ذات الأولوية، مثل النقل، والصحة، والتعليم. تم تصميم الاستراتيجية لتكون شاملة ومراعية للجوانب الأخلاقية، حيث خضعت كل مبادرة لمراجعة مجتمعية قبل تنفيذها.
في قطاع النقل، ساعد الذكاء الاصطناعي في تخفيف الازدحام بنسبة 15% عبر إدارة ذكية لحركة المرور. وفي الرعاية الصحية، طورت الدولة نماذج تشخيص مبكر للسكري والسرطان باستخدام بيانات السكان، ما أسهم في تقليل كلفة العلاج طويل الأمد. النتيجة كانت زيادة الكفاءة وتحسين الخدمات دون التضحية بالعدالة الاجتماعية.
الهند – الذكاء الاصطناعي لخدمة المزارعين الصغارفي شراكة بين شركة Microsoft ووزارة الزراعة الهندية، تم تطوير نظام يستخدم الذكاء الاصطناعي لتوجيه المزارعين حول موعد الزراعة والحصاد، بناءً على بيانات الطقس والتربة والتاريخ الزراعي. المشروع استهدف صغار المزارعين الذين لا يمتلكون أدوات تحليلية.
النتائج أظهرت زيادة في المحصول الزراعي بنسبة تراوحت بين 20% و25%، وتقليص الهدر بنسبة 40%. هذه التجربة تُجسد كيف يمكن للذكاء الاصطناعي أن يخدم فئات مهمشة ويُسهم في تحقيق الأمن الغذائي.
كندا – تحسين الشمول المالي عبر خوارزميات تقييم ائتماني عادلةشركة “Zest AI” في كندا طورت نموذجًا لتقييم الجدارة الائتمانية قائمًا على الذكاء الاصطناعي، يعتمد على بيانات متنوعة بدلًا من التركيز التقليدي على الراتب وسجل الائتمان فقط. هذا التغيير مكّن الآلاف من الأفراد ذوي الدخل غير المنتظم من الوصول إلى القروض لأول مرة.
النتيجة كانت زيادة معدلات الموافقة على القروض بنسبة 25% دون ارتفاع ملحوظ في حالات التعثر، مما أثبت أن الذكاء الاصطناعي يمكن أن يُستخدم لإزالة الحواجز الاقتصادية بدلًا من ترسيخها.
نماذج سلبية لاستخدام الذكاء الاصطناعي في الاقتصاد
الولايات المتحدة – خوارزمية “COMPAS” في النظام القضائي والتمييز ضد السودنظام “COMPAS” طُور لتقدير احتمال عودة السجين إلى الجريمة، واستخدمته محاكم أمريكية لتقرير منح السراح المشروط. لاحقًا، كشفت منظمة ProPublica أن النظام يُظهر انحيازًا واضحًا ضد المواطنين الأمريكيين من أصول إفريقية، حيث يُقيّمهم بخطورة أعلى من البيض حتى في الحالات المتشابهة.
هذا النموذج يُظهر كيف يمكن للذكاء الاصطناعي، عند تدريبه على بيانات منحازة، أن يُعيد إنتاج العنصرية، ما يؤدي إلى إقصاء فئات كاملة من الفرص الاقتصادية والاجتماعية.
الصين – نظام “الائتمان الاجتماعي” والتحكم الاقتصادي عبر الذكاء الاصطناعياعتمدت الصين نظامًا للائتمان الاجتماعي يُقيّم سلوك المواطنين رقميًا بناءً على مدى التزامهم بالقوانين والمعايير الاجتماعية. يتم ذلك عبر مراقبة البيانات السلوكية من كاميرات المراقبة، والإنفاق، والحياة الرقمية. الحاصلون على تقييمات متدنية يُحرمون من شراء تذاكر القطارات، أو الحصول على قروض، أو حتى التوظيف في بعض المؤسسات.
هذا النموذج يوضح كيف يمكن للذكاء الاصطناعي أن يتحول إلى أداة لضبط المجتمعات وفرض السيطرة، وحرمان الأفراد من المشاركة الاقتصادية إذا لم يستوفوا معايير سياسية أو سلوكية.
أفريقيا جنوب الصحراء – الإقصاء بسبب الفجوة الرقميةرغم ما يحمله الذكاء الاصطناعي من وعود تنموية، فإن واقع الكثير من الدول الإفريقية يُظهر صورة مقلقة. ففي تقرير للبنك الإفريقي للتنمية (2022)، تبين أن 70% من سكان القارة لا يمتلكون مهارات رقمية أساسية، وأن أغلب الدول لا تملك بنية تحتية تؤهلها لاستخدام الذكاء الاصطناعي.
نتيجة ذلك أن الشركات المحلية لا تستطيع المنافسة في السوق الرقمية، وأن الذكاء الاصطناعي يزيد من التبعية الاقتصادية للخارج بدلًا من أن يُقلصها.
رابط مختصر