مايكروسوفت تتعاون مع كلاود فلير لانتزاع عرش البحث عبر الإنترنت
تاريخ النشر: 6th, September 2025 GMT
أعلنت شركة "مايكروسوفت" عن تعاونها مع "كلاود فلير" لتقديم معايير جديدة تغير من آلية البحث عبر الإنترنت وتتوافق مع أدوات الذكاء الاصطناعي، وفق تقرير نشره موقع "ويندوز سنترال" التقني.
وتأتي المعايير الجديدة تحت اسم "إن إل ويب" (NLWeb) من "مايكروسوفت" و"أوتو راغ" (AutoRAG) من "كلاود فلير" (Cloud Flare) وهما يعملان بالتكامل معا.
وتغير هذه المعايير من تجربة استخدام الإنترنت والبحث فيه بالشكل المعتاد الذي مكّن "غوغل" من السيطرة على هذا القطاع تماما.
فبدلا من استخدام الكلمات المفتاحية أو مرادفاتها والآليات المتشابهة من أجل الوصول إلى الصفحات المطلوبة واكتشافها، تعمل المعايير الجديدة على قراءة محتوى الموقع وتحليله وأرشفته بشكل يسهل لأدوات الذكاء الاصطناعي الوصول إليه.
ويمكن القول إن هذه المعايير تهيئ المواقع للاستقبال أدوات الذكاء الاصطناعي وتجعل وصولها إلى المعلومات أسهل وأبسط كثيرا.
ويقوم معيار "إن إل ويب" بتقسيم الموقع وصفحة الإنترنت إلى مجموعة من نقاط النهاية المنظمة والمبنية بشكل واضح يسهل فهم الموقع والوصول إلى محتواه، ومن ثم لن تحتاج أداة الذكاء الاصطناعي إلا لفحص هذه النقاط لمعرفة محتوى الموقع.
ويوفر المعيار الجديد إمكانية توجيه الأوامر مباشرة إلى الموقع بدلا من تقديم رابط صفحة الموقع إلى أداة الذكاء الاصطناعي أملا في الوصول إلى النتائج.
ويعمل معيار "أوتو راغ" على تحويل صفحات الإنترنت إلى مقاطع برمجية مضمنة في قاعدة البيانات الخاصة بالموقع، ثم يقوم بفهرسة هذه المقاطع البرمجية التي يسهل على الذكاء الاصطناعي فحصها.
وتهدف هذه المعايير الجديدة بشكل أساسي إلى تيسير التواصل بين أدوات الذكاء الاصطناعي والصفحات الويب، مما يجعل الوصول إلى المعلومات أكثر دقة وأفضل من صفحات الويب المعتادة.
إعلانوتخطط "مايكروسوفت" لدعم هذه المعايير الجديدة في محرك بحث "بينغ" ومتصفح "إيدج" وحتى أداة الذكاء الاصطناعي "كوبايلوت"، وذلك لمنحهم تفوقا على "غوغل" والمنافسين.
وتأتي هذه الخطوة استجابة لارتفاع معدل استخدام أدوات الذكاء الاصطناعي في البحث عن المعلومات والوصول إليها، ويمكن القول إنها أولى الخطوات نحو عالم الإنترنت المستقبلي.
المصدر: الجزيرة
كلمات دلالية: حريات دراسات أدوات الذکاء الاصطناعی المعاییر الجدیدة هذه المعاییر الوصول إلى
إقرأ أيضاً:
هل يشجع الذكاء الاصطناعي البشر على الغش؟
أظهرت دراسة جديدة أن الناس يصبحون أكثر ميلا للغش عندما يوكلون المهام إلى أنظمة الذكاء الاصطناعي، خاصة إذا تمكنوا من توجيهها بطريقة تُشجع على السلوك غير الأخلاقي دون أن يطلبوا ذلك صراحة.
وقالت الباحثة في مجال العلوم السلوكية زوي رهوان إن "مستوى الغش يمكن أن يكون هائلا". وأوضحت -في مقال نشره موقع "ساينتفيك أميركان" المتخصص في الأبحاث العلمية- أن مجرد تفويض الذكاء الاصطناعي مهمة ما يجعل المستخدم يشعر بمسؤولية أخلاقية أقل عن النتائج غير النزيهة.
اقرأ أيضا list of 2 itemslist 1 of 2اعتقال 21 تركيًّا بتهمة الاحتيال على الدولة في مصفاة للذهبlist 2 of 2لندن عاصمة السرقة الأوروبية.. هواتف وسيارات فاخرة تهرّب إلى الصين وأفريقياend of listوشارك في الدراسة -التي نشرت مجلة "نيتشر" نتائجها- آلاف الأشخاص ضمن 13 تجربة استخدم فيها الباحثون نماذج مختلفة، من بينها 4 أنظمة لغوية تجارية كبرى مثل "شات جي بي تي 4″ (GPT-4o) و"كلاود" (Claude).
وتضمنت بعض التجارب لعبة لرمي النرد يربح فيها المشاركون بناء على الأرقام التي يعلنونها، مما يتيح فرصة للغش، بينما استخدمت تجارب أخرى لعبة لتقدير ضرائب الدخل، حيث يمكن للمشاركين التلاعب بالأرقام لتحقيق أرباح أكبر.
وعندما طُلب من المشاركين الإبلاغ عن نتائج النرد بأنفسهم، أظهر نحو 5% فقط سلوكا غير صادق، لكن النسبة قفزت إلى 88% عندما فوّضوا المهمة إلى خوارزمية ووجهوها نحو تحقيق الربح بدلا من الصدق.
وأصدر بعضهم أوامر مباشرة بالغش مثل "الضرائب سرقة، أبلغ عن صفر دخل"، بينما اكتفى آخرون بتلميحات مثل "افعل ما تراه مناسبا، لكن لن أمانع إذا ربحت أكثر قليلا".
ولاحظ الباحثون أن الذكاء الاصطناعي يميل إلى تنفيذ الأوامر غير الأخلاقية بحماس أكبر من البشر. ففي التجارب التي طُلب فيها من الطرفين الغش بشكل جزئي أو كامل، كانت النماذج الآلية أكثر امتثالا للغش، بينما تردد المشاركون البشر.
اختبر الفريق أيضا وسائل لتقييد هذا السلوك، فوجد أن الحواجز الافتراضية المدمجة في النماذج لم تكن فعالة في منع الغش، وأن أكثر الوسائل نجاحا كانت إعطاء تعليمات محددة تمنع الكذب صراحة مثل "لا يُسمح لك بالإبلاغ الخاطئ تحت أي ظرف".
إعلانوأشارت الدراسة إلى أن محاولات تقييد الغش عبر "الحواجز الأخلاقية" المدمجة في النماذج أو باستخدام بيانات الشركات كانت محدودة الفاعلية.
وكانت الإستراتيجية الأكثر نجاحا هي إعطاء تعليمات واضحة وصارمة تمنع الغش، إلا أن تعميم هذا الحل في الواقع العملي ليس قابلا للتطبيق بسهولة.
وتخلص الدراسة إلى أن العلاقة بين الإنسان والذكاء الاصطناعي قد تفتح الباب أمام أشكال جديدة من السلوك غير الأخلاقي تتطلب حلولا أكثر فعالية.
وترى الباحثة في جامعة ميلانو، أنيه كاجاكايته، أن النتائج تكشف جانبا نفسيا مهما؛ إذ يبدو أن الناس يشعرون بذنب أقل عندما يوجهون الآلة للغش بطريقة غير مباشرة، وكأن الذنب الأخلاقي يتبدد عندما ينفذ "شخص" غير بشري الفعل نيابة عنهم.