وزير التعليم العالى لأعضاء الشيوخ: تم إعداد برامج عمل بالجامعات للذكاء الاصطناعى وتم انفاق نحو 10 مليار جنيه لمشروع التحول الرقمى بالوزارة
تاريخ النشر: 9th, June 2024 GMT
قال الدكتور أيمن عاشور، وزير التعليم العالى، إنه يتم الأن الاستعداد لمواكبة الذكاء الاصطناعى، من خلال استراتيجية استخدامات الذكاء الاصطناعى، مشيرا إلى إعداد برامج عمل بالجامعات للذكاء الاصطناعى، و تم التوصل إلى عدد من التوصيات التى يتم تنفيذها، وتم انفاق نحو 10 مليار جنيه لمشروع التحول الرقمى بالوزارة.
جاء ذلك خلال كلمته بالجلسة العامة لمجلس الشيوخ اليوم، لمناقشة تقرير اللجنة المشتركة من لجنة الشباب والرياضة ومكاتب لجان التعليم والبحث العلمي والاتصالات وتكنولوجيا المعلومات والطاقة والبيئة والقوى العاملة والصناعة والتجارة والمشروعات المتوسطة والصغيرة ومتناهية الصغر، حول الدراسة المقدمة من النائب أحمد أبو هشيمة، رئيس لجنة الشباب والرياضة بمجلس الشيوخ بعنوان: الشباب والذكاء الاصطناعي.. الفرص.. التحديات.
وأضاف عاشور، تضمنت التوصيات، تغيير المناهج لتستوعب مفهوم الذكاء الاصطناعى، وتنمية مهارات الطلاب لمواطبة مجالات العمل، وكذلك تحول الحرم الجامعى ليعمل بشكل ذكى، وكذلك تفعيل المنصات الاليكترونية، وتطوير المحتوى التعليمى.
وأكد وزير التعليم العالى، أهمية التحول الرقمى، قائلا، : من غير التحول الرقمى الجيد لن نستفيد من الذكاء الاصطناعى.
وتابع، أيضا من بين محاور الاستراتيجية، البرامج البينية بين التخصصات المختلفة، نظرا لأن الذكاء الاصطناعى يدخل فى كل التخصصات.
المصدر: الأسبوع
كلمات دلالية: الذکاء الاصطناعى التحول الرقمى
إقرأ أيضاً:
دراسة: الذكاء الاصطناعي أقل تنظيما من الشطائر وشركات التقنية تتسابق للذكاء الفائق
تُظهر دراسة جديدة أن ثماني شركات رائدة في الذكاء الاصطناعي، بينها "OpenAI" و"Meta" و"Anthropic" و"DeepSeek"، لا تمتلك خططا موثوقة لمنع مخاطر كارثية للذكاء الاصطناعي.
أكبر شركات الذكاء الاصطناعي (AI) في العالم لا تفي بالتزاماتها الخاصة بالسلامة، وفقا لتقييم جديد يحذر من أن هذه الإخفاقات تنطوي على مخاطر "كارثية".
يأتي التقرير بينما تواجه شركات الذكاء الاصطناعي دعاوى قضائية واتهامات بأن روبوتاتها الحوارية تسبب ضررا نفسيا، بما في ذلك من خلال التصرف ك"مدرّب على الانتحار"، فضلا عن تقارير عن هجمات إلكترونية بمساعدة الذكاء الاصطناعي.
تقرير مؤشر سلامة الذكاء الاصطناعي لشتاء 2025، الصادر عن منظمة "معهد مستقبل الحياة" غير الربحية (FLI)، قيّم ثماني شركات كبرى في مجال الذكاء الاصطناعي، بينها الشركات الأمريكية Anthropic وOpenAI وGoogle DeepMind وxAI وMeta، والشركات الصينية DeepSeek وAlibaba Cloud وZ.ai.
ووجد التقرير افتقارا إلى استراتيجيات موثوقة لمنع سوء الاستخدام الكارثي أو فقدان السيطرة على أدوات الذكاء الاصطناعي، مع تسابق الشركات نحو الذكاء العام الاصطناعي (AGI) والذكاء فائق القدرة، وهو شكل من الذكاء الاصطناعي يتجاوز القدرات العقلية البشرية.
Related ما بعد روبوتات الدردشة: "نباتيو الذكاء الاصطناعي" يرفضون قبول واقع افتراضيحلّل خبراء مستقلون التقرير وخلصوا إلى أن أيا من الشركات لم يضع خطة قابلة للاختبار للحفاظ على السيطرة البشرية على نظم ذكاء اصطناعي عالية الكفاءة.
وقال ستيوارت راسل، أستاذ علوم الحاسوب في جامعة كاليفورنيا، بيركلي، إن شركات الذكاء الاصطناعي تزعم أنها تستطيع بناء ذكاء اصطناعي يتفوق على الإنسان، لكن لم تُظهر أيّ منها كيف ستمنع فقدان السيطرة البشرية على مثل هذه الأنظمة.
"أبحث عن دليل على أنهم يستطيعون خفض المخاطر السنوية لفقدان السيطرة إلى واحد في كل 100 مليون، بما يتماشى مع متطلبات المفاعلات النووية"، كتب راسل. "بدلا من ذلك، يعترفون بأن الخطر قد يكون واحدا في كل عشرة، واحدا في كل خمسة، وحتى واحدا في كل ثلاثة، ولا يستطيعون تبرير تلك الأرقام ولا تحسينها".
كيف جاءت مراتب الشركات؟قاسَت الدراسة الشركات عبر ستة مجالات حاسمة: تقييم المخاطر، الأضرار الراهنة، أطر السلامة، السلامة الوجودية، الحوكمة والمساءلة، وتبادل المعلومات.
وبينما سجّلت تقدما في بعض الفئات، وجدَت لجنة مستقلة من الخبراء أن التنفيذ لا يزال متباينا وغالبا ما يفتقر إلى العمق المطلوب وفق المعايير العالمية الناشئة.
نالَت Anthropic وOpenAI وGoogle DeepMind إشادة نسبية لشفافيتها وأطر السلامة العامة واستثماراتها المتواصلة في أبحاث السلامة التقنية. ومع ذلك، لا تزال لديها نقاط ضعف.
وتعرضت Anthropic للانتقاد بسبب وقف تجارب "human uplift" والاتجاه إلى التدريب استنادا إلى تفاعلات المستخدمين بشكل افتراضي؛ وهو قرار يقول خبراء إنه يضعف حماية الخصوصية.
وتعرّضت OpenAI لانتقادات بسبب عتبات سلامة مبهمة، والضغط ضد تشريعات سلامة الذكاء الاصطناعي على مستوى الولايات، وضعف الرقابة المستقلة.
وجد التقرير أن Google DeepMind حسّنت إطار السلامة لديها، لكنها لا تزال تعتمد على مقيمين خارجيين يتلقون تعويضا ماليا من الشركة، ما يقوّض استقلاليتهم.
"عانت الشركات الثلاث الكبرى من أضرار راهنة بسبب فضائح حديثة (أذى نفسي، انتحار أطفال، هجوم اختراق ضخم لدى Anthropic)، ولدى الشركات الثلاث هامش للتحسن"، قال ماكس تيغمارك، رئيس FLI وأستاذ في معهد ماساتشوستس للتكنولوجيا (MIT)، لـ Euronews Next.
Related تقرير للأمم المتحدة يحذر: سباق الذكاء الاصطناعي يسبق تكيف الدول ويهدد بتفاقم عدم المساواة عالمياأما الشركات الخمس المتبقية فأظهرت تقدما متفاوتا لكنه ملحوظ، وفقا للتقرير. ومع ذلك، حذّر من أن مجال التحسين لا يزال قائما.
فعلى سبيل المثال، نشرت xAI أول إطار سلامة مُهيكل لديها، لكن المراجعين حذّروا من أنه ضيق ويفتقر إلى مُحفّزات واضحة للتخفيف.
كانت Z.ai الشركة الوحيدة التي سمحت بنشر غير خاضع للرقابة لتقييماتها الخارجية للسلامة، لكن أوصي لها بنشر إطار السلامة الكامل وهيكل الحوكمة مع تحديد واضح لمناطق الخطر، ووسائل التخفيف، وعمليات صنع القرار.
قدّمت Meta إطار سلامة جديدا على حدود التطوير مع عتبات قائمة على النتائج، لكن المراجعين قالوا إنه ينبغي توضيح المنهجيات ومشاركة عمليات تقييم داخلية وخارجية أكثر صلابة.
نال DeepSeek إشادة بسبب مناصرة داخلية من موظفيه لكنه لا يزال يفتقر إلى وثائق السلامة الأساسية.
وتبيّن أن Alibaba Cloud ساهم في المعايير الوطنية الملزمة الخاصة بمتطلبات الوسم المائي، لكنه يستطيع التحسن عبر تعزيز متانة النماذج وموثوقيتها من خلال تحسين الأداء في مؤشرات الصدقية والإنصاف ومعايير السلامة.
تواصلت Euronews Next مع الشركات للحصول على ردودها على التقرير لكنها لم تتلقّ إجابات حتى وقت النشر.
"أقل تنظيما من السندويتشات""آمل أن نتجاوز مرحلة توسع الشركات [القائمة] على سمعتها"، قال تيغمارك.
وأضاف: "حين سُئلت الشركات عن خططها للسيطرة على الذكاء العام الاصطناعي، لم تكن لدى أي منها خطة".
وفي الأثناء، تستخدم شركات تقنية مثل Meta مصطلح "الذكاء الفائق" كشعار ترويجي للترويج لآخر نماذجها. هذا العام، سمّت Meta قسم نماذج اللغة الكبيرة (LLM) لديها "Meta Superintelligence Labs".
وقال تيغمارك إن هناك تحولا كبيرا في النقاشات حول الذكاء العام الاصطناعي والذكاء الفائق؛ فبعدما كان يُوصَف لدى التقنيين كاحتمال واقعي خلال 100 عام مقبلة، يُقال الآن إنه قد يتحقق خلال السنوات القليلة المقبلة.
"الذكاء الاصطناعي يخضع أيضا لتنظيم أقل من السندويتشات [في الولايات المتحدة]، وهناك ضغط متواصل ضد معايير سلامة ملزمة لدى الحكومات"، قال.
لكن تيغمارك أشار من جهة أخرى إلى وجود رد فعل غير مسبوق ضد عدم السيطرة على الذكاء العام الاصطناعي والذكاء الفائق.
Related بحث جديد يكشف أن أبيات الشعر يمكنها خداع روبوتات الدردشةفي أكتوبر، دعا آلاف الشخصيات العامة، بمن فيهم قادة في الذكاء الاصطناعي والتكنولوجيا، شركات الذكاء الاصطناعي إلى إبطاء سعيها نحو الذكاء الفائق.
وحصدت العريضة، التي نظمها FLI، توقيعات من مختلف الطيف السياسي، بينهم ستيف بانون (كبير الاستراتيجيين السابق لدى الرئيس الأمريكي دونالد ترامب)، وسوزان رايس (مستشارة الأمن القومي الأمريكية السابقة في عهد الرئيس أوباما)، وزعماء دينيون، والعديد من السياسيين السابقين، فضلا عن علماء حاسوب بارزين.
"ما القاسم المشترك بين هؤلاء؟ لقد اتفقوا على بيان. وأرى أنه أمر بالغ الدلالة أن تتفق قاعدة "MAGA" العميقة لدى ترامب مع قادة الإيمان، وأطراف اليسار والحركات العمالية على شيء واحد"، قال تيغمارك.
وأضاف: "سيجعل الذكاء الفائق كل عامل غير قادر على كسب رزقه، إذ ستستحوذ الروبوتات على جميع الوظائف. سيعتمد الناس على إعانات حكومية؛ وعلى اليمين ستُرى على أنها إعانات، وعلى اليسار سيُنظر إليها كحكومة على طريقة 1984". وختم: "أعتقد أن ما يحدث هو أن الناس [يصلون] إلى نقطة انفجار".
انتقل إلى اختصارات الوصول شارك محادثة