سارعت العشرات من الشركات الكبرى والتي شملت أسماء لامعة منها أمازون ونيويورك تايمز إلى حظر GTBot، وهي الأداة التي أعلنت عنها مؤخرا شركة  أوبن إيه آي  OpenAI الأمريكية والتي تستهدف مسحمواقع الويب بحثًا عن البيانات التي سيتم تغذيتها إلى برنامج الدردشة الشهير ChatGPT.

وفقا لتقرير من موقع businessinsider اعتبارًا من هذا الأسبوع، تحرك 70 موقع ويب مختلف من ضمن أفضل 1000 موقع ويب في العالم لحظر GTBot، بعد أسبوعين فقط من إطلاقه لجمع كميات كبيرة من المعلومات عبر الإنترنت لتدريب نماذج روبوت  ChatGPT.

 

GTBot

أجرت شركة Originality.ai، وهي الشركة التي تتحقق من المحتوى لمعرفة ما إذا كان تم إنشاؤه بواسطة الذكاء الاصطناعي أو مسروقًا، تحليلًا وجد أن أكثر من 15٪ من مواقع الويب الـ 100 الأكثر شهرة في العالم قررت حظر GTTBot خلال الأسبوعين الماضيين.

أكبر ستة مواقع ويب تحظر الآن الروبوت هي amazon.com بنسخها المختلفى، وnytimes.com، وcnn.com، وwikihow.com، وshutterstock.com، وquora.com.

من بين أفضل 100 موقع يحجب خدمة GTTBot، Bloomberg.com، وscribd.com، وreuters.com، بالإضافة إلى insider.com، وbusinessinsider.com. ومن بين أفضل 1000 موقع يحجب الروبوت، ikea.com، وairbnb.com، وnextdoor.com، وnymag.com، وtheatlantic.com، وaxios.com، وusmagazine.com، وLonelyplanet.com، وcoursera.org.

وجاء في تحليل الشركة المتخصصة أنه: "تم إطلاق GTBot قبل 14 يومًا، وتزايدت بشكل كبير المواقع التي تحظره خاصة الأكثر شهرة وشعبية في العالم ومنها أفضل 1000 موقع عبر الويب".

استخدمت مواقع الويب المختلفة حيلة بسيطة نسبيا لمنع الأداة المتجسسة  GTBot من الاطلاع على المحتوى، حيث تتضمن المواقع ملفًا يسمى robots.txt، وقد تمت إضافة GTBot إلى قائمة "عدم السماح" الخاصة به.

عشان متخسرش كتير.. احذف بطاقة الفيزا من جوجل بلاي بهذه الطريقة 50 % من الإجابات غلط! .. دراسة تكشف مفاجأة صادمة عن ChatGPT

Robots.txt هي أداة تم إنشاؤها في التسعينيات تهدف إلى منع برامج التجسس على صفحة الويب، مثل Google أو برامج البحث الخاصة بـ Bing، من استخراج البيانات والمعلومات من موقع الويب. ومن جانبها أعلنت شركة أوبن إيه آي أنها تحترم قرار هذه الشركات وتلتزم بعدم تسلل GTBot واستخلاص نتائج بحثية من مواقعهم

الكثير من المعلومات المتاحة على الإنترنت، وخاصة النصوص والصور، يخضع من الناحية الفنية لحقوق الطبع والنشر. لا تطلب برامج التسلل مثل GTBot الإذن أو الترخيص أو الدفع مقابل استخدام أي بيانات أو معلومات تستخرجها. الطريقة الوحيدة لتجنبها في هذه المرحلة هي من خلال ملف robots.txt.

المصدر: صدى البلد

كلمات دلالية: أوبن أيه آي الروبوت الويب

إقرأ أيضاً:

سام ألتمان يحذر: لا تثقوا في ChatGPT بشكل أعمى

حث سام ألتمان، الرئيس التنفيذي لشركة OpenAI، مستخدمي ChatGPT على عدم الثقة العمياء في الأداة، مشيرا إلى أن النموذج، رغم قوّه، لا يزال عرضة للأخطاء ويجب التعامل معه بحذر.

جاءت تصريحاته خلال الحلقة الأولى من البودكاست الرسمي لشركة OpenAI، حيث أعرب عن اندهاشه من حجم الثقة التي يمنحها المستخدمون لـChatGPT، رغم علمهم بمحدوديته.

الذكاء الاصطناعي يتحول إلى فخ.. هجمات تنتحل صفة ChatGPT تستهدف الملايينخطوات سهلة لتفعيل ميزة توليد الصور مع ChatGPT داخل واتساب

وقال ألتمان: "من المثير للاهتمام أن الناس يثقون بـChatGPT إلى هذا الحد، رغم أنه أداة معروفة بـ "الهلوسة"ـ إنها من تلك التقنيات التي لا ينبغي أن تثق بها كثيرا".

تحذير واضح رغم الشعبية الواسعة

أثار هذا التصريح جدلا في الأوساط التقنية وبين المستخدمين اليوميين الذين يعتمدون على ChatGPT في مجالات متعددة، مثل الكتابة، البحث، تقديم النصائح التربوية، وغيرها.

وأكد ألتمان أن النموذج، كغيره من نماذج اللغة الضخمة، قد يصوغ إجابات مقنعة لكنها غير صحيحة أو مضللة.

وأوضح أن ChatGPT لا "يفهم" العالم كما يفهمه البشر، بل يعتمد على التنبؤ بالكلمة التالية استنادا إلى البيانات التي تم تدريبه عليها، ما يجعله أحيانا يقدم معلومات مغلوطة أو مختلقة تماما وهي الظاهرة المعروفة في مجال الذكاء الاصطناعي باسم "الهلوسة".

وقال ألتمان بصراحة: "النموذج ليس موثوقا تماما.. ويجب أن نكون صادقين بشأن ذلك".

مخاطر الاعتماد المفرط

ورغم الاعتراف بالعيوب، أقر ألتمان بالشعبية الكبيرة التي يحظى بها ChatGPT، لكنه حذر من الاعتماد الزائد على مخرجاته، خاصة عندما يتم التعامل مع إجاباته وكأنها حقائق مؤكدة.

وأشار إلى أهمية التوعية والشفافية في التعامل مع الذكاء الاصطناعي، والتأكيد على أن هذه الأدوات لا تخلو من التحيزات أو الأخطاء.

كما تطرق إلى بعض الميزات الجديدة القادمة إلى ChatGPT، مثل الذاكرة المستمرة، وإمكانية إدخال نموذج مدعوم بالإعلانات، وهي خطوات تهدف لتحسين التجربة الشخصية وتحقيق عوائد مالية، لكنها في الوقت نفسه تثير تساؤلات جديدة حول الخصوصية واستخدام البيانات.

"ثق.. ولكن تحقق"

تتوافق تصريحات ألتمان مع وجهات نظر أخرى داخل مجتمع الذكاء الاصطناعي.

فقد عبر جيفري هينتون، المعروف بلقب "عراب الذكاء الاصطناعي"، عن موقف مشابه في مقابلة مع شبكة CBS، حيث قال: "رغم تحذيري من مخاطر الذكاء الاصطناعي المتقدم، إلا أنني نفسي أميل إلى تصديق ما يقوله GPT-4 أكثر مما ينبغي".

وأوضح هينتون ذلك من خلال اختبار بسيط: "سالي لديها ثلاثة إخوة. كل من إخوتها لديه أختان، كم عدد أخوات سالي؟"، أجاب GPT-4 إجابة خاطئة، رغم أن الجواب الصحيح هو "واحدة" سالي نفسها.

وعلق هينتون: "ما زال الأمر يفاجئني حين يخطئ في مسائل بسيطة مثل هذه"، مضيفا أنه يتوقع أن النماذج المستقبلية، مثل GPT-5، قد تتفادى مثل هذه الأخطاء.

في نهاية المطاف، يتفق كل من ألتمان وهينتون على أن الذكاء الاصطناعي يمكن أن يكون أداة فعالة، لكنه لا ينبغي أن يعامل كمصدر لا يخطئ. وبينما يتعمق هذا النوع من التقنية في تفاصيل حياتنا اليومية، تظل النصيحة الأهم: ثق.. لكن تحقق.

طباعة شارك سام ألتمان ChatGPT OpenAI

مقالات مشابهة

  • 5 معلومات يجمعها ChatGPT عنك.. ماذا يعرف وكيف تحذفها؟
  • الجيش الباكستاني يقضي على 30 مسلحًا حاولوا التسلل إلى البلاد
  • قائمة الأمراض التي تمنع الترشح لـ انتخابات مجلس الشيوخ
  • الجيش الباكستاني يقتل 30 مسلحا حاولوا التسلل من أفغانستان
  • باكستان تعلن قتل 30 مسلحاً أفغانياً حاولوا التسلل عبر الحدود
  • سام ألتمان يحذر: لا تثقوا في ChatGPT بشكل أعمى
  • استفد من ChatGPT وروبوتات الدردشة الأخرى التي تعمل بالذكاء الاصطناعي بهذه النصائح
  • هل يمكن أن تصبح دبي عاصمة الويب 3 العالمية؟
  • توزيع أوراق إجابة الكيمياء والجغرافيا بلجان الثانوية العامة لكتابة البيانات قبل بدء الامتحان
  • دليل إحصائي جديد لتحسين جودة البيانات في سوريا