مايكروسوفت تعلن عن نماذج ذكاء اصطناعي جديدة
تاريخ النشر: 3rd, September 2025 GMT
في خطوة تعكس طموحها لتعزيز مكانتها في سباق الذكاء الاصطناعي العالمي، أعلنت شركة مايكروسوفت عن إطلاق نموذجين جديدين طوّرتهما بالكامل داخل معاملها البحثية.
ويُعتبر هذا الإعلان بمثابة تأكيد على توجه الشركة نحو بناء تقنياتها الخاصة، بعيدًا عن اعتمادها الكلّي على شراكاتها القائمة مع شركات الذكاء الاصطناعي الأخرى مثل OpenAI.
كشفت مايكروسوفت أن النموذج الأول، الذي حمل اسم MAI-Voice-1، يُعدّ أول نموذج لتوليد الكلام الطبيعي طورته الشركة داخليًا، يهدف هذا النموذج إلى تحسين جودة التفاعل الصوتي بين المستخدمين والأنظمة الرقمية، حيث بدأت الشركة في استخدامه بالفعل ضمن خدمات Copilot Daily وميزة Podcast.
أما النموذج الثاني، MAI-1-preview، فيعتمد على معالجة النصوص، وهو أول نموذج أساسي تم تدريبه من البداية وحتى النهاية داخل مايكروسوفت. وأتاحت الشركة هذا النموذج للاختبارات العامة عبر منصة LMArena، على أن يتم توفيره قريبًا للتجربة في بيئات مختارة من Copilot.
في مقابلة مع موقع Semafor، أوضح مصطفى سليمان، رئيس قسم الذكاء الاصطناعي في مايكروسوفت، أن النموذجين الجديدين صُمّما مع مراعاة الكفاءة والفعالية من حيث التكلفة.
وأشار إلى أن نموذج MAI-Voice-1 لا يحتاج سوى إلى وحدة معالجة رسومات واحدة (GPU) لتشغيله، بينما خضع MAI-1-preview لعملية تدريب مكثفة على نحو 15 ألف وحدة معالجة رسومات من نوع Nvidia H-100.
للمقارنة، فإن نماذج أخرى مثل Grok من شركة xAI تطلبت أكثر من 100 ألف رقاقة للتدريب. وهنا علّق سليمان قائلاً: "سر نجاح النماذج يكمن في اختيار البيانات المثالية والتقليل من إهدار البيانات غير المفيدة، ما يضمن تدريبًا أكثر دقة وجودة."
استقلالية في مواجهة عمالقة الذكاء الاصطناعيعلى الرغم من أن Copilot ما يزال يعتمد في الأساس على تقنيات GPT من OpenAI، إلا أن قرار مايكروسوفت بتطوير نماذجها الخاصة يعكس رغبتها في ترسيخ استقلاليتها. فالشركة التي استثمرت مليارات الدولارات في OpenAI لم تعد ترى أن الشراكة وحدها كافية، بل تسعى لبناء قدراتها الخاصة لمنافسة الشركات الرائدة في المجال مثل Google DeepMind وxAI.
أكد سليمان أن مايكروسوفت وضعت "خارطة طريق ضخمة تمتد لخمس سنوات"، مشيرًا إلى أن الشركة تستثمر في الذكاء الاصطناعي "ربعًا تلو الآخر". هذا التصريح يعكس جدية الشركة في خوض المنافسة على المدى الطويل، خصوصًا في ظل المخاوف المتزايدة من أن قطاع الذكاء الاصطناعي قد يواجه تباطؤًا أو أزمة في المستقبل القريب نتيجة التكاليف المرتفعة وضغط البنية التحتية.
تدرك مايكروسوفت أن الوصول إلى التكافؤ مع رواد تطوير الذكاء الاصطناعي يتطلب وقتًا واستثمارات ضخمة، لكنها تراهن على الجمع بين خبرتها التقنية، وإمكاناتها المالية، ورؤيتها الاستراتيجية الممتدة على خمس سنوات. وإذا نجحت في تنفيذ هذه الخطة، فقد تتحول إلى منافس محوري قادر على إعادة رسم خريطة هذا القطاع.
وبينما يتابع العالم خطوات عمالقة التكنولوجيا في سباق الذكاء الاصطناعي، يأتي إعلان مايكروسوفت ليؤكد أن المنافسة لم تعد محصورة بين عدد محدود من الشركات، بل باتت أكثر تنوعًا، مع دخول لاعبين جدد برؤى مختلفة ونماذج مبتكرة.
المصدر: بوابة الوفد
كلمات دلالية: مايكروسوفت الذكاء الاصطناعي الذکاء الاصطناعی
إقرأ أيضاً:
من صورة إلى وهم.. الوجه الآخر لتريند الذكاء الاصطناعي
في زمنٍ أصبحت فيه ضغطة زر كفيلة بتغيير ملامح الوجه ولون العين وحتى تفاصيل الجسد، تحوّل الذكاء الاصطناعي من أداة تقنية إلى تريند يجتاح مواقع التواصل الاجتماعي، فلم يعد تعديل الصور يقتصر على تحسين الإضاءة أو إزالة العيوب، بل تخطى ذلك إلى خلق صورة جديدة قد تنفصل تماماً عن الحقيقة، ورغم بريق المتعة والإبهار الذي يقدمه هذا التوجه، إلا أن آثاره السلبية باتت مقلقة، من تزوير الهوية وتشويه الواقع، إلى تعزيز معايير جمالية زائفة، وانعكاسات نفسية واجتماعية قد تترك جروحاً عميقة في وعي الأفراد، خصوصاً الشباب والمراهقين.
هذا التحقيق يُطلق صافرة إنذار بشأن الخطر الذي يهدد صورنا الشخصية، ليناقش كيف يمكن للذكاء الاصطناعي أن يحوّل «صورتك» من مجرد بكسلات إلى أداة لجمع المعلومات، وكيفية حماية نفسك من الوقوع في فخ التسريب أو الاستخدام غير الأخلاقي، مؤكدين على قاعدة أساسية، وهي أن الوعي الأمني للمستخدم هو خط الدفاع الأول والأخير عن هويته الرقمية.
عدسة الخداع.. حين يصنع الذكاء الاصطناعي واقعا غير موجودقال الدكتور محمد بحيري، مدرس الذكاء الاصطناعي بالجامعة المصرية الروسية، إن أدوات تعديل الصور المدعومة بالذكاء الاصطناعي، مثل جيميني من جوجل وشات جي بي، تعمل وفق آليات تضمن الحفاظ على خصوصية المستخدم.
وأضاف «بحيري» في تصريحاته لـ «الأسبوع»: «البرامج المعتمدة تلتزم بمعايير أخلاقية صارمة، فالصور يتم رفعها بواسطة المستخدم الذي يتحمل مسؤوليتها، فالبرنامج لا يمكنه تغيير محتوى الصورة بشكل جذري ومخالف لأخلاقيات المستخدم (كمن يرفع صورة محجبة) إلا إذا طلب هو ذلك صراحةً، وهذه البيانات تُخزَّن وتُستخدم في نماذج تدريب ضخمة، لكن البرامج الموثوقة -الخاضعة لاتفاقيات مثل اللائحة العامة لحماية البيانات (GDPR) والتي تخص حقوق الملكية والبيانات- لا تُصرّح باستخدام هذه الصور لأي أغراض أخرى خارج نطاق الخدمة المباشرة».
وحذّر « بحيري» من مخاطر التسريب، قائلاً: «لا يوجد دليل على حدوث تسريب للصور من برامج مثل جيمني جوجل أو شات جي بي تي، لكن الخطر يكمن في البرامج غير الموثوقة، فإذا رفع المستخدم صوره على برنامج لا يخضع لمعايير GDPR، قد يتم استخدام تلك الصور من قِبل الشركة المطورة، حتى لو حصل المستخدم على النتيجة المطلوبة، لذا فعلينا أن نعي أن أي برنامج، بما في ذلك البرامج العملاقة، قد يكون عرضة للاختراق في المستقبل، مما يجعل الوعي بجهة الاستخدام أمراً حتمياً».
واستطرد: «عند البحث في متاجر التطبيقات، يجد المستخدم عشرات البرامج تحمل أيقونة شات جي بي تي نفسها، يجب على المستخدم أن يكون واعياً لمعرفة البرنامج المعتمد من غيره، حتى لا يقع فريسة لبرامج تستغل صوره في أغراض غير أخلاقية أو مسيئة».
وفيما يتعلق بالمخاطر المستقبلية الأعمق، أشار «بحيري» إلى أن التحدي لا يقتصر على استخدام الصور بشكل مسيء أو فردي، بل في جمع البيانات الضخمة لتكوين ملف شامل عن الشعوب.
واختتم «بحيري» حديثه، بالقول: «الذكاء الاصطناعي يجمع خصائص الصور ويُحلل ملامح المصريين وأشكالهم وتصرفاتهم التي يستخلصها من تفاعلاتهم مع البرنامج، والهدف هنا هو بناء ما نسميه «الثقافة الخفية» للشعب، فإذا أصبح هناك اتفاق عالمي مستقبلاً على إمكانية استنساخ أشكال أو شخصيات رقمية، فإن الذكاء الاصطناعي سيكون لديه النموذج العام (General Visual Extraction) للملامح المصرية، مما يمكنه من إنتاج نسخ مطابقة للملامح بدقة عالية. لذا، فإن وعي المستخدم هو خط الدفاع الأول عند استخدام هذه الأدوات».
الذكاء الاصطناعي والتجميل الرقمي: زينة عابرة أم تهديد للهوية؟من جانبه، أكد الدكتور محمد الحارثي، استشاري أمن المعلومات، على أهمية الوعي الأمني للمستخدمين عند التعامل مع أدوات تعديل وتوليد الصور بالذكاء الاصطناعي، مشدداً على أن البيانات الشخصية هي المسؤولية الأولى والأخيرة للمستخدم.
وأضاف «الحارثي» لـ «الأسبوع»: «من المهم أن نعي جميعاً، وبخاصة الأطفال واليافعين، أن صورنا الشخصية التي تُرفع على هذه التطبيقات قد تظل قابلة للاستخدام من قِبل طرف ثالث، فبياناتنا لا تُسجل فقط لدينا أو لدى الشركة المالكة للتطبيق، . ورغم أن صورنا موجودة بالفعل على منصات التواصل الاجتماعي، إلا أننا ننصح دائماً بضرورة التعامل بحرص شديد مع البيانات الشخصية عند التفاعل مع أي وسيلة لتوليد الصور عبر الذكاء الاصطناعي».
وشدد «الحارثي» على نقطتين حاسمتين لتقليل المخاطر القانونية والأمنية، تتمثل في استخدام الصور الشخصية فقط، إذ يجب أن يتعامل المستخدم مع صوره الشخصية فقط، وليس صور الآخرين، فقد ظهرت بالفعل ترندات تشجع على استخدام صور شخصيات أخرى، وهذه مشكلة تترتب عليها إجراءات قانونية سواء محلياً أو دولياً، لانتهاكها حقوق ملكية الصورة أو استغلالها، لذا يجب أن نكون حريصين جداً على عدم المساس بحقوق الآخرين.
إلى جانب، تجنب الترندات غير المفيدة، فلا يجب أن ننساق وراء الترندات بمختلف أشكالها، فكثير من هذه الترندات غير مفيدة حقيقية وتُعتبر مضيعة للوقت، والأهم أنها تزيد من تعرض بياناتنا لمخاطر غير ضرورية.
وفي ختام تصريحاته، أكد «الحارثي» على احتمالية التسريب وسوء الاستخدام، حتى مع وجود الصور على السوشيال ميديا بالفعل، قائلًا: «قد يتم استغلال هذه الصور بشكل آخر في أغراض توليد محتوى مسيء أو أغراض غير أخلاقية، فصورنا موجودة بالفعل على منصات التواصل، وقد يتم استغلال هذه الصور مع طرف آخر، ولا نمنع الناس من الاستمتاع أو التفاعل مع التكنولوجيا، لكن يجب أن يكونوا حريصين على نوع الصورة ونوع التعديل الذي يسمحون به، وأن يتعاملوا مع الأمر بوعي أمني عالٍ».
ظاهرة تعديل الصور بواسطة الذكاء الاصطناعي في ميزان الأرقامبقي القول إنه، وفقا لدراسات وتقارير دولية حديثة، باتت ظاهرة تعديل الصور بواسطة الذكاء الاصطناعي مرتبطة بآثار سلبية متزايدة على الأفراد والمجتمع، فقد أظهرت دراسة منشورة في دورية BMC Psychology (2023) أن الانخراط في تعديل الصور يرتبط بانخفاض الثقة بالنفس وزيادة المقارنة الجسدية، بما يؤدي إلى شعور متنامٍ بعدم الرضا عن المظهر. وفي جانب آخر، تشير الإحصاءات إلى اتساع نطاق الصور والفيديوهات المزيفة «Deepfake»، حيث كشف استطلاع دولي أن نحو 60% من المستهلكين واجهوا محتوى مزيفاً خلال العام الماضي، بينما لا تتجاوز دقة البشر في تمييز الصور الحقيقية من المزيفة 53% فقط، وهو ما يعادل تقريباً مستوى الصدفة، كما خلصت دراسات إلى أن أقل من 0.1% من المستخدمين استطاعوا التفريق بشكل كامل بين الصور والفيديوهات الحقيقية والمزيفة، وهذه الأرقام تكشف عن خطورة الظاهرة، ليس فقط على مستوى الهوية الفردية وتشويه الواقع، وإنما أيضاً في تعزيز معايير جمالية زائفة قد تترك آثاراً نفسية عميقة، خاصة بين الشباب والمراهقين.
اقرأ أيضاًمن السكك الحديدية إلى الذكاء الاصطناعي.. محطة بشتيل وتحقيق حلم النقل الذكي
النقل الذكي في مصر.. ثورة التكنولوجيا التي تعيد تشكيل شوارعنا