سويسرا تدخل سباق الذكاء الاصطناعي بإطلاق نموذجها الوطني المفتوح المصدر "Apertus"
تاريخ النشر: 5th, September 2025 GMT
دخلت سويسرا رسميًا سباق الذكاء الاصطناعي العالمي عبر إطلاق Apertus، وهو أول نموذج لغوي وطني مفتوح المصدر (LLM) يحمل هوية عامة بالكامل، ليكون منافسًا للنماذج التي تقدمها شركات كبرى مثل OpenAI وAnthropic وMeta. ويأتي هذا المشروع كثمرة تعاون بين المعهد الفيدرالي السويسري للتكنولوجيا في لوزان (EPFL)، والمعهد الفيدرالي السويسري للتكنولوجيا في زيورخ (ETH)، والمركز الوطني السويسري للحوسبة الفائقة (CSCS)، وجميعها مؤسسات حكومية رائدة.
يرى الباحث جوشوا تان، أحد أبرز المؤيدين لفكرة جعل الذكاء الاصطناعي مرفقًا عامًا، أن Apertus يمثّل نقلة نوعية. وقال في تصريحات رسمية: "Apertus هو النموذج العام الرائد للذكاء الاصطناعي اليوم، لأنه صُمم من مؤسسات عامة لخدمة المصلحة العامة. إنه دليل واضح على أن الذكاء الاصطناعي يمكن أن يكون مثل الطرق أو المياه أو الكهرباء، أي جزءًا من البنية التحتية العامة".
هذا الطرح يفتح الباب أمام رؤية جديدة، حيث تتحول نماذج الذكاء الاصطناعي من كونها أدوات مملوكة للشركات إلى منصات وطنية تخدم المجتمع بكافة قطاعاته.
الشفافية والالتزام بالقوانينما يميز Apertus عن معظم النماذج الأخرى هو اعتماده الكامل على مبدأ الانفتاح. فالمطورون لم يكتفوا بإطلاق النموذج، بل أتاحوا كذلك شيفرة المصدر، ووثائق التدريب، ومجموعات البيانات المستخدمة، بما يمنح الباحثين والشركات القدرة على مراجعة كل تفصيلة في مراحل التطوير.
وحرصت المؤسسات السويسرية على أن يتوافق التدريب مع قوانين حماية البيانات وحقوق النشر السويسرية، مما يجعله خيارًا مثاليًا للشركات الأوروبية، خصوصًا في قطاعات شديدة الحساسية مثل المصارف. وكانت جمعية المصرفيين السويسريين قد أشارت سابقًا إلى أن مثل هذه المبادرات تحمل "إمكانات كبيرة على المدى الطويل" في ظل صرامة القوانين السويسرية بشأن سرية البيانات.
النموذج الجديد ليس حكرًا على جهة واحدة. يمكن للباحثين والهواة ورواد الأعمال الاستفادة منه لتطوير تطبيقات متنوعة مثل، روبوتات الدردشة الذكية، مترجمات لغوية عالية الدقة، أدوات تعليمية وتدريبية تفاعلية.
وقد جرى تدريب Apertus على 15 تريليون رمز مميز تغطي أكثر من 1000 لغة، بينها نسبة كبيرة (40%) من اللغات غير الإنجليزية مثل الألمانية السويسرية والرومانشية. كما التزم القائمون على المشروع باستخدام بيانات متاحة للعامة فقط، مع احترام بروتوكولات "إلغاء الاشتراك" من المواقع الإلكترونية، وهو ما يميّزه عن بعض الشركات الأخرى التي واجهت دعاوى قضائية بسبب استخراج بيانات دون إذن من أصحابها.
أحجام مختلفة وتوفر واسعيتوفر Apertus في نسختين، نسخة 8 مليارات معلمة مناسبة للاستخدامات الأخف، نسخة 70 مليار معلمة للتطبيقات المتقدمة عالية الدقة.
ويُمكن الوصول إلى النموذج عبر منصة Swisscom، المزود الرائد لتكنولوجيا المعلومات والاتصالات في سويسرا، أو عبر منصة Hugging Face المتخصصة في النماذج مفتوحة المصدر.
أهمية الخطوة السويسريةإطلاق Apertus يسلّط الضوء على اتجاه جديد تتبناه بعض الدول، وهو توطين الذكاء الاصطناعي عبر نماذج وطنية شفافة وقابلة للتطوير. ففي الوقت الذي تواجه فيه الشركات التجارية انتقادات بسبب غموض مصادر بياناتها أو انتهاك حقوق النشر، تقدم سويسرا نموذجًا بديلًا يوازن بين التقدم التكنولوجي وحماية الخصوصية.
من خلال Apertus، تُثبت سويسرا أن السباق نحو الذكاء الاصطناعي لا يقتصر على الشركات العملاقة في وادي السيليكون، بل يمكن أن تكون الدول نفسها لاعبًا رئيسيًا إذا ما استثمرت في البحث العلمي والبنية التحتية الرقمية. وإذا نجح النموذج في كسب ثقة المؤسسات الأوروبية، خصوصًا المصرفية منها، فقد يتحول إلى معيار عالمي جديد يجمع بين القوة التقنية والشفافية القانونية.
المصدر: بوابة الوفد
إقرأ أيضاً:
من صورة إلى وهم.. الوجه الآخر لتريند الذكاء الاصطناعي
في زمنٍ أصبحت فيه ضغطة زر كفيلة بتغيير ملامح الوجه ولون العين وحتى تفاصيل الجسد، تحوّل الذكاء الاصطناعي من أداة تقنية إلى تريند يجتاح مواقع التواصل الاجتماعي، فلم يعد تعديل الصور يقتصر على تحسين الإضاءة أو إزالة العيوب، بل تخطى ذلك إلى خلق صورة جديدة قد تنفصل تماماً عن الحقيقة، ورغم بريق المتعة والإبهار الذي يقدمه هذا التوجه، إلا أن آثاره السلبية باتت مقلقة، من تزوير الهوية وتشويه الواقع، إلى تعزيز معايير جمالية زائفة، وانعكاسات نفسية واجتماعية قد تترك جروحاً عميقة في وعي الأفراد، خصوصاً الشباب والمراهقين.
هذا التحقيق يُطلق صافرة إنذار بشأن الخطر الذي يهدد صورنا الشخصية، ليناقش كيف يمكن للذكاء الاصطناعي أن يحوّل «صورتك» من مجرد بكسلات إلى أداة لجمع المعلومات، وكيفية حماية نفسك من الوقوع في فخ التسريب أو الاستخدام غير الأخلاقي، مؤكدين على قاعدة أساسية، وهي أن الوعي الأمني للمستخدم هو خط الدفاع الأول والأخير عن هويته الرقمية.
عدسة الخداع.. حين يصنع الذكاء الاصطناعي واقعا غير موجودقال الدكتور محمد بحيري، مدرس الذكاء الاصطناعي بالجامعة المصرية الروسية، إن أدوات تعديل الصور المدعومة بالذكاء الاصطناعي، مثل جيميني من جوجل وشات جي بي، تعمل وفق آليات تضمن الحفاظ على خصوصية المستخدم.
وأضاف «بحيري» في تصريحاته لـ «الأسبوع»: «البرامج المعتمدة تلتزم بمعايير أخلاقية صارمة، فالصور يتم رفعها بواسطة المستخدم الذي يتحمل مسؤوليتها، فالبرنامج لا يمكنه تغيير محتوى الصورة بشكل جذري ومخالف لأخلاقيات المستخدم (كمن يرفع صورة محجبة) إلا إذا طلب هو ذلك صراحةً، وهذه البيانات تُخزَّن وتُستخدم في نماذج تدريب ضخمة، لكن البرامج الموثوقة -الخاضعة لاتفاقيات مثل اللائحة العامة لحماية البيانات (GDPR) والتي تخص حقوق الملكية والبيانات- لا تُصرّح باستخدام هذه الصور لأي أغراض أخرى خارج نطاق الخدمة المباشرة».
وحذّر « بحيري» من مخاطر التسريب، قائلاً: «لا يوجد دليل على حدوث تسريب للصور من برامج مثل جيمني جوجل أو شات جي بي تي، لكن الخطر يكمن في البرامج غير الموثوقة، فإذا رفع المستخدم صوره على برنامج لا يخضع لمعايير GDPR، قد يتم استخدام تلك الصور من قِبل الشركة المطورة، حتى لو حصل المستخدم على النتيجة المطلوبة، لذا فعلينا أن نعي أن أي برنامج، بما في ذلك البرامج العملاقة، قد يكون عرضة للاختراق في المستقبل، مما يجعل الوعي بجهة الاستخدام أمراً حتمياً».
واستطرد: «عند البحث في متاجر التطبيقات، يجد المستخدم عشرات البرامج تحمل أيقونة شات جي بي تي نفسها، يجب على المستخدم أن يكون واعياً لمعرفة البرنامج المعتمد من غيره، حتى لا يقع فريسة لبرامج تستغل صوره في أغراض غير أخلاقية أو مسيئة».
وفيما يتعلق بالمخاطر المستقبلية الأعمق، أشار «بحيري» إلى أن التحدي لا يقتصر على استخدام الصور بشكل مسيء أو فردي، بل في جمع البيانات الضخمة لتكوين ملف شامل عن الشعوب.
واختتم «بحيري» حديثه، بالقول: «الذكاء الاصطناعي يجمع خصائص الصور ويُحلل ملامح المصريين وأشكالهم وتصرفاتهم التي يستخلصها من تفاعلاتهم مع البرنامج، والهدف هنا هو بناء ما نسميه «الثقافة الخفية» للشعب، فإذا أصبح هناك اتفاق عالمي مستقبلاً على إمكانية استنساخ أشكال أو شخصيات رقمية، فإن الذكاء الاصطناعي سيكون لديه النموذج العام (General Visual Extraction) للملامح المصرية، مما يمكنه من إنتاج نسخ مطابقة للملامح بدقة عالية. لذا، فإن وعي المستخدم هو خط الدفاع الأول عند استخدام هذه الأدوات».
الذكاء الاصطناعي والتجميل الرقمي: زينة عابرة أم تهديد للهوية؟من جانبه، أكد الدكتور محمد الحارثي، استشاري أمن المعلومات، على أهمية الوعي الأمني للمستخدمين عند التعامل مع أدوات تعديل وتوليد الصور بالذكاء الاصطناعي، مشدداً على أن البيانات الشخصية هي المسؤولية الأولى والأخيرة للمستخدم.
وأضاف «الحارثي» لـ «الأسبوع»: «من المهم أن نعي جميعاً، وبخاصة الأطفال واليافعين، أن صورنا الشخصية التي تُرفع على هذه التطبيقات قد تظل قابلة للاستخدام من قِبل طرف ثالث، فبياناتنا لا تُسجل فقط لدينا أو لدى الشركة المالكة للتطبيق، . ورغم أن صورنا موجودة بالفعل على منصات التواصل الاجتماعي، إلا أننا ننصح دائماً بضرورة التعامل بحرص شديد مع البيانات الشخصية عند التفاعل مع أي وسيلة لتوليد الصور عبر الذكاء الاصطناعي».
وشدد «الحارثي» على نقطتين حاسمتين لتقليل المخاطر القانونية والأمنية، تتمثل في استخدام الصور الشخصية فقط، إذ يجب أن يتعامل المستخدم مع صوره الشخصية فقط، وليس صور الآخرين، فقد ظهرت بالفعل ترندات تشجع على استخدام صور شخصيات أخرى، وهذه مشكلة تترتب عليها إجراءات قانونية سواء محلياً أو دولياً، لانتهاكها حقوق ملكية الصورة أو استغلالها، لذا يجب أن نكون حريصين جداً على عدم المساس بحقوق الآخرين.
إلى جانب، تجنب الترندات غير المفيدة، فلا يجب أن ننساق وراء الترندات بمختلف أشكالها، فكثير من هذه الترندات غير مفيدة حقيقية وتُعتبر مضيعة للوقت، والأهم أنها تزيد من تعرض بياناتنا لمخاطر غير ضرورية.
وفي ختام تصريحاته، أكد «الحارثي» على احتمالية التسريب وسوء الاستخدام، حتى مع وجود الصور على السوشيال ميديا بالفعل، قائلًا: «قد يتم استغلال هذه الصور بشكل آخر في أغراض توليد محتوى مسيء أو أغراض غير أخلاقية، فصورنا موجودة بالفعل على منصات التواصل، وقد يتم استغلال هذه الصور مع طرف آخر، ولا نمنع الناس من الاستمتاع أو التفاعل مع التكنولوجيا، لكن يجب أن يكونوا حريصين على نوع الصورة ونوع التعديل الذي يسمحون به، وأن يتعاملوا مع الأمر بوعي أمني عالٍ».
ظاهرة تعديل الصور بواسطة الذكاء الاصطناعي في ميزان الأرقامبقي القول إنه، وفقا لدراسات وتقارير دولية حديثة، باتت ظاهرة تعديل الصور بواسطة الذكاء الاصطناعي مرتبطة بآثار سلبية متزايدة على الأفراد والمجتمع، فقد أظهرت دراسة منشورة في دورية BMC Psychology (2023) أن الانخراط في تعديل الصور يرتبط بانخفاض الثقة بالنفس وزيادة المقارنة الجسدية، بما يؤدي إلى شعور متنامٍ بعدم الرضا عن المظهر. وفي جانب آخر، تشير الإحصاءات إلى اتساع نطاق الصور والفيديوهات المزيفة «Deepfake»، حيث كشف استطلاع دولي أن نحو 60% من المستهلكين واجهوا محتوى مزيفاً خلال العام الماضي، بينما لا تتجاوز دقة البشر في تمييز الصور الحقيقية من المزيفة 53% فقط، وهو ما يعادل تقريباً مستوى الصدفة، كما خلصت دراسات إلى أن أقل من 0.1% من المستخدمين استطاعوا التفريق بشكل كامل بين الصور والفيديوهات الحقيقية والمزيفة، وهذه الأرقام تكشف عن خطورة الظاهرة، ليس فقط على مستوى الهوية الفردية وتشويه الواقع، وإنما أيضاً في تعزيز معايير جمالية زائفة قد تترك آثاراً نفسية عميقة، خاصة بين الشباب والمراهقين.
اقرأ أيضاًمن السكك الحديدية إلى الذكاء الاصطناعي.. محطة بشتيل وتحقيق حلم النقل الذكي
النقل الذكي في مصر.. ثورة التكنولوجيا التي تعيد تشكيل شوارعنا