OpenAI تطلق واجهة Canvas الجديدة لتطبيق ChatGPT
تاريخ النشر: 4th, October 2024 GMT
تقوم OpenAI باختبار واجهة مساحة عمل جديدة لتطبيق ChatGPT تسمى Canvas، وقد كشفت شركة الذكاء الاصطناعي العملاقة عن مساحة عمل ChatGPT الجديدة على مدونتها الرسمية وهي متاحة حاليًا لمستخدمي ChatGPT Plus وTeam، وسيتمكن مستخدمو Enterprise وEdu من الوصول إلى Canvas في وقت ما من الأسبوع المقبل.
Canvas هي مساحة واجهة افتراضية لكتابة وترميز المشاريع التي تسمح للمستخدمين بالتشاور مع ChatGPT حول أجزاء معينة من المشروع.
يمكن فتح Canvas يدويًا عن طريق كتابة "use canvas" في موجه الأوامر الخاص بك. يمكن أيضًا فتح Canvas تلقائيًا عندما "يكتشف سيناريو يمكن أن يكون مفيدًا فيه"، وفقًا لمنشور المدونة.
هناك أيضًا العديد من الاختصارات التي يمكن استخدامها لكتابة وترميز المشاريع. يمكن للمستخدمين أن يطلبوا من ChatGPT اقتراحات بشأن التعديلات وتعديلات الطول وتغييرات مستوى القراءة والرموز التعبيرية في مشاريع الكتابة. ويمكن للمبرمجين أن يطلبوا من ChatGPT مراجعة أسطر معينة من التعليمات البرمجية وإضافة سجلات وتعليقات لمزيد من الوضوح وإصلاح الأخطاء ونقل الترميز إلى لغة مختلفة مثل JavaScript أو TypeScript أو Python أو Java أو C++ أو PHP في وضع Canvas.
تعمل ميزة Canvas من OpenAI على جعل ChatGPT متوافقًا مع مساعدي الذكاء الاصطناعي الآخرين الذين لديهم مساحات عمل منفصلة للتركيز على مناطق معينة من المشروع مثل Artifacts من Anthropic ونموذج الذكاء الاصطناعي Cursor الذي يركز على الترميز.
المصدر: بوابة الوفد
إقرأ أيضاً:
ذكاء اصطناعي بلا تركيز.. روبوتات المحادثة تفتقد الدقة عند الإيجاز
كشفت دراسة جديدة أجرتها شركة Giskard الفرنسية، المتخصصة في اختبار أنظمة الذكاء الاصطناعي، أن طلب إجابات قصيرة من روبوتات المحادثة مثل ChatGPT قد يؤدي إلى زيادة احتمالات الهلوسة أي تقديم معلومات غير صحيحة أو مختلقة.
وذكرت الشركة في منشور عبر مدونتها، أن الإيجاز في الإجابة، خاصة عند التعامل مع مواضيع غامضة أو أسئلة مبنية على افتراضات خاطئة، قد يقلل من دقة النموذج، وفقا لـ"techcrunch".
أكد الباحثون أن تغييرا بسيطا في تعليمات النظام، مثل “كن موجزا”، قد يكون له تأثير كبير على ميل النموذج لتوليد معلومات غير دقيقة.
وقالت الدراسة: "تشير بياناتنا إلى أن التعليمات المباشرة للنظام تؤثر بشكل كبير على ميل النموذج للهلوسة، هذا الاكتشاف له تبعات مهمة عند نشر النماذج في التطبيقات الفعلية، حيث يفضل الإيجاز غالبا لتقليل استهلاك البيانات، وتحسين سرعة الاستجابة، وخفض التكاليف".
تكمن المشكلة بحسب Giskard، في أن النماذج تحتاج إلى "مساحة نصية" كافية لتفنيد الافتراضات الخاطئة أو التوضيح عند وجود معلومات مضللة، وهو ما لا يتوفر عند إجبارها على تقديم إجابات قصيرة، وبالتالي، تميل النماذج إلى اختيار الإيجاز على حساب الدقة.
وتطرقت الدراسة أيضا إلى أن النماذج تكون أقل ميلا لتفنيد الادعاءات المثيرة للجدل عندما تطرح بثقة من قبل المستخدم، كما أن النماذج التي يفضلها المستخدمون ليست دائما الأكثر صدقا.
وأشار الباحثون إلى وجود تناقض متزايد بين تحسين تجربة المستخدم والحفاظ على الدقة المعلوماتية، خصوصا عندما تتضمن استفسارات المستخدمين مغالطات أو معلومات خاطئة.
وتشمل النماذج المتأثرة بهذه الظاهرة: GPT-4o من OpenAI المستخدم حاليا في ChatGPT، إلى جانب نماذج أخرى مثل Mistral Large وClaude 3.7 Sonnet من شركة Anthropic، والتي أظهرت جميعها انخفاضا في الموثوقية عند مطالبتها بإجابات موجزة.