لمنافسة ديب سيك.. بايدو الصينية تطلق نموذجي ذكاء اصطناعي مجانا
تاريخ النشر: 17th, March 2025 GMT
أطلقت شركة بايدو الصينية، نموذجين جديدين للذكاء الاصطناعي، بما في ذلك نموذج جديد يركز على المنطق الذي قال إنه ينافس نموذج ديب سيك، حيث يتأثر في سباق الذكاء الاصطناعى التنافسي بشدة.
جاء هذا الإعلان بعد شهرين من بدء تشغيل نموذج الذكاء الاصطناعى Deepseek التابع لشركة ديب سيك الصينية، الذي يقال إنه على قدم المساواة مع النماذج الرائدة في مجال الصناعة في الولايات المتحدة، أو حتى أفضل من النماذج الرائدة في الصناعة في الولايات المتحدة التي تم تطويرها بتكلفة باهظة.
قالت بايدو عن أحد النماذج الجديدة: “يقدم Ernie X1 الأداء على قدم المساواة مع Deepseek R1 عند نصف السعر فقط”، وأضافت: إن X1 لديه فهم أقوى وتخطيط وتأمل وتطور، حيث يعد نموذج التفكير العميق الأول الذي يستخدم الأدوات بشكل مستقل".
وقالت بايدو إن نموذج الأساسي الأخير Ernie 4.5 لديه “القدرة الممتازة على الفهم متعدد الوسائط. فهو يمتلك قدرات لغوية أكثر تقدما، ويتم تحسين فهمها، وتوليدها، والمنطق، وقدرات الذاكرة بشكل شامل”.
وأكدت بايدو إنه يحتوي على EQ High، ومن السهل فهم الميمات الشبكية والرسوم الكاريكاتورية الساخرة.
تعتبر بايدو واحدة من أوائل عمالقة التكنولوجيا في الصين لإطلاق دردشة على طراز شات جي بي تي، حيث كافحت من أجل الحصول على اعتماد واسع النطاق لنموذج اللغة الكبير Ernie، على الرغم من المطالبة بالأداء المماثل لـ Openai GPT-4 ، وسط منافسة شرسة.
وأشارت بايدو إلى أن النموذجين متاحان مجانا من خلال روبوت الدردشة Ernie التابع لها، وتعتزم الشركة الصينية جعل نماذج الذكاء الاصطناعي مفتوحة المصدر اعتبارا من 30 يونيو المقبل.
كما أوضحت أن أنظمة الذكاء الاصطناعي الخاصة بها متعددة الوسائط قادرة على معالجة ودمج أنواع مختلفة من البيانات بما في ذلك النص والفيديو والصور والصوت، ويمكنها تحويل المحتوى عبر هذه التنسيقات.
وفي الآوانة الأخيرة، أعلنت شركة بايدو، عن إنها ستجعل روبوت الدردشة الذكي التابع لها "إرني بوت" مجانيا بدءا من الأول من أبريل المقبل، حيث ستكون متاحة لجميع المستخدمين مجانا على كل من منصات الكمبيوتر المكتبي والهواتف المحمولة.
المصدر: صدى البلد
كلمات دلالية: بايدو الذكاء الاصطناعى ديب سيك المزيد الذکاء الاصطناعی دیب سیک
إقرأ أيضاً:
روسيا ومؤامرة تسميم ذكاء الغرب الاصطناعي
في شهرمارس/ آذار، نشرت شركة NewsGuard، المختصة في تتبع المعلومات المضللة، تقريرًا زعمت فيه أن أدوات الذكاء الاصطناعي التوليدي- مثل ChatGPT- تُضخِّم الدعاية الروسية المضلِّلة.
وقد اختبرت NewsGuard أشهر الدردشات الذكية باستخدام تعليمات (prompts) مستندة إلى مقالات من شبكة "برافدا" (Pravda)- وهي مجموعة من المواقع الإلكترونية المؤيدة للكرملين تحاكي المنصات الإخبارية الشرعية، وقد كُشف عنها لأول مرة من قِبل الوكالة الفرنسية Viginum.
وكانت النتائج مقلقة، إذ قال التقرير إن الدردشات الذكية "كرّرت روايات زائفة مغسولة عبر شبكة برافدا بنسبة 33% من الوقت".
شبكة برافدا – التي لا تملك سوى جمهور محدود – حيّرت الباحثين طويلًا. فبينما يرى بعضهم أن الهدف كان استعراضيًا: أي الإيحاء بقدرة روسيا على التأثير في الغرب، يرى آخرون هدفًا أكثر خبثًا: إذ إن برافدا لا تستهدف البشر بقدر ما تسعى إلى تلقين "نماذج اللغة الكبيرة" (LLMs) الكامنة خلف الدردشات الذكية، بتغذيتها بمعلومات زائفة قد يلتقطها المستخدم دون وعي.
وقد أكدت NewsGuard في تقريرها الفرضية الثانية. وسرعان ما لاقت هذه المزاعم صدى واسعًا، وأثارت عناوين مثيرة في صحف مرموقة مثل واشنطن بوست، فوربس، فرانس 24، ودير شبيغل.
لكن بالنسبة لنا – نحن وعدد من الباحثين الآخرين – فإن هذه الخلاصة لا تصمد أمام التمحيص. أولًا، إن منهجية NewsGuard غير شفافة: فقد امتنعت عن نشر التعليمات التي استخدمتها في الاختبار، ورفضت مشاركتها مع الصحفيين، مما يجعل إعادة التجربة بشكل مستقل أمرًا مستحيلًا.
ثانيًا، يبدو أن تصميم الدراسة أدى إلى تضخيم النتائج، وقد يكون رقم الـ33% مضللًا. إذ يسأل المستخدمون الدردشات الذكية عن كل شيء، من وصفات الطبخ إلى تغيّر المناخ؛ لكن NewsGuard اختبرتها حصرًا بتعليمات مستمدة من شبكة برافدا.
إعلانكما أن ثلثي تلك التعليمات صيغت عمدًا لاستفزاز إجابات خاطئة أو تقديم أكاذيب باعتبارها حقائق. حتى الردود التي تحث المستخدم على الحذر أو تشير إلى أن المعلومات غير مؤكدة، تم اعتبارها "معلومات مضللة". لقد وُضعت الدراسة منذ البدء لتبحث عن التضليل، وقد وجدته.
هذا الحدث يعكس دينامية أوسع ومقلقة، تحكمها تكنولوجيا تتطور بسرعة، وضجة إعلامية، وفاعلون خبيثون، وبحث علمي لا يواكب التطورات.
ومع تصنيف التضليل والمعلومات الزائفة كأعلى المخاطر العالمية بحسب منتدى دافوس، فإن القلق بشأن انتشارها له ما يبرره. غير أن ردود الفعل المتسرعة قد تشوّه المشكلة وتقدم صورة مبسطة عن الذكاء الاصطناعي المعقّد.
من السهل تصديق فكرة أن روسيا "تسمّم" عمدًا الذكاء الاصطناعي الغربي ضمن مؤامرة ماكرة. لكن هذا النوع من التأطير التحذيري يحجب تفسيرات أكثر واقعية، وقد يُسبب ضررًا فعليًا.
إذًا، هل يمكن للدردشات الذكية أن تُكرر سرديات الكرملين أو تستند إلى مصادر روسية مشكوك فيها؟ نعم. لكن عدد المرات التي يحدث فيها ذلك، وما إذا كان ناتجًا عن تدخل روسي مباشر، والشروط التي تجعل المستخدم يواجه هذا النوع من المحتوى، كلها أسئلة ما تزال غير محسومة. الكثير منها يعتمد على "الصندوق الأسود" الذي يُمثّل الخوارزميات التي تُحدد طريقة استدعاء المعلومات من قبل الدردشة الذكية.
لقد أجرينا بأنفسنا مراجعة منهجية، اختبرنا فيها ChatGPT، وCopilot، وGemini، وGrok باستخدام تعليمات مرتبطة بالتضليل.
إضافة إلى إعادة اختبار الأمثلة القليلة التي قدمتها NewsGuard، صممنا تعليمات جديدة بأنفسنا. بعضها كان عامًا، مثل مزاعم حول مختبرات بيولوجية أميركية في أوكرانيا؛ وبعضها كان محددًا جدًا، مثل الادعاءات بوجود منشآت تابعة للناتو في بلدات أوكرانية معينة.
ولو كانت شبكة برافدا "تُلقّن" الذكاء الاصطناعي، لكنا رأينا إشارات إليها في أجوبة الدردشات، سواء في الحالات العامة أو الخاصة.
لكننا لم نجد ذلك في نتائجنا. فعلى عكس نسبة 33 % التي وردت في تقرير NewsGuard، لم تُنتج تعليماتنا إلا نسبة 5 % من الإجابات التي تضمنت مزاعم خاطئة. أما الإشارات إلى برافدا فلم تظهر سوى في 8% من الإجابات، ومعظمها ورد لتفنيد محتواها.
والأهم أن الإشارات إلى برافدا تركزت في مواضيع تغيب عنها التغطية في المنصات الإعلامية السائدة. وهذا يُعزّز ما يُعرف بفرضية "فراغ البيانات": أي أن الدردشة الذكية حين تفتقر إلى مصادر موثوقة، قد تلجأ إلى مواقع مشكوك فيها، لا لأنها مُلقّنة، بل لأنها لا تملك مصادر بديلة.
ولو ثبت أن "فراغات البيانات"- وليس التلقين الروسي- هي سبب المشكلة، فإن التعرض للتضليل يصبح نتيجة لندرة المعلومات لا لقوة آلة دعائية.
علاوة على ذلك، فإن مواجهة المستخدمين لمحتوى مضلل في إجابات الدردشات يتطلب توافر عدة شروط في آنٍ واحد: أن يطرحوا أسئلة دقيقة حول مواضيع مهملة، وألا تغطيها وسائل الإعلام الموثوقة، وأن تفتقر الدردشة إلى حواجز تمنعها من اعتماد مصادر ضعيفة.
حتى مع ذلك، فإن مثل هذه الحالات نادرة وغالبًا ما تكون مؤقتة. فـ"فراغات البيانات" عادة ما تُغلق بسرعة حالما يتم تسليط الضوء على الموضوع، وحتى حين تبقى مفتوحة، فإن الدردشات غالبًا ما تدحض المزاعم بدلًا من إعادة إنتاجها.
إعلانورغم أن التكرار التلقائي للمعلومات الزائفة ممكن تقنيًا، فإن هذا النوع من السيناريوهات نادر جدًا خارج الظروف المصطنعة التي تُصمم لخداع الذكاء الاصطناعي.
إن خطر المبالغة في الحديث عن تلاعب الكرملين بالذكاء الاصطناعي حقيقي. بل إن بعض الخبراء في مكافحة التضليل يرون أن الحملات الروسية ذاتها قد تهدف إلى تضخيم المخاوف الغربية، فتُربك وحدات التحقق من الحقائق، وتُربك جهود المواجهة.
وتقوم مارغاريتا سيمونيان، وهي واحدة من أبرز الوجوه الدعائية الروسية، بالاستشهاد مرارًا بأبحاث غربية لتسويق نفوذ قناة RT التي ترأسها والممولة من الحكومة الروسية.
التحذيرات العشوائية من المعلومات المضللة قد تنقلب إلى عكس غايتها، فتعزز تأييد السياسات القمعية، وتُقوّض الثقة بالديمقراطية، وتشجع الناس على الشكّ في كل محتوى، بما في ذلك الموثوق منه.
في الوقت ذاته، قد تَحجُب هذه المخاوف الصاخبة تهديدات أكثر هدوءًا- لكنها أكثر خطورة- لاستخدامات الذكاء الاصطناعي من قِبل جهات خبيثة، مثل توليد البرمجيات الخبيثة، وهو ما نبّهت إليه تقارير من غوغل وOpenAI.
لذلك، فإن التمييز بين الهواجس الحقيقية والمخاوف المُبالغ فيها أمر بالغ الأهمية. فالمعلومات المضللة تشكّل تحديًا فعليًا، لكن الهلع الناجم عنها لا يقل خطورة.
الآراء الواردة في المقال لا تعكس بالضرورة الموقف التحريري لشبكة الجزيرة.
aj-logoaj-logoaj-logo إعلان من نحنمن نحناعرض المزيدمن نحنالأحكام والشروطسياسة الخصوصيةسياسة ملفات تعريف الارتباطتفضيلات ملفات تعريف الارتباطخريطة الموقعتواصل معناتواصل معنااعرض المزيدتواصل معنااحصل على المساعدةأعلن معناابق على اتصالالنشرات البريديةرابط بديلترددات البثبيانات صحفيةشبكتناشبكتنااعرض المزيدمركز الجزيرة للدراساتمعهد الجزيرة للإعلامتعلم العربيةمركز الجزيرة للحريات العامة وحقوق الإنسانقنواتناقنواتنااعرض المزيدالجزيرة الإخباريةالجزيرة الإنجليزيالجزيرة مباشرالجزيرة الوثائقيةالجزيرة البلقانعربي AJ+تابع الجزيرة نت على:
facebooktwitteryoutubeinstagram-colored-outlinersswhatsapptelegramtiktok-colored-outline