إطلاق "شات جي بي تي" لنظام ويندوز
تاريخ النشر: 20th, October 2024 GMT
أعلنت شركة تقنيات الذكاء الاصطناعي أوبن أيه.آي بدء اختبار نسخة مخصصة لنظام التشغيل ويندوز من تطبيق محادثة الذكاء الاصطناعي "شات جي بي تي".
ونقل موقع تك كرانش المتخصص في التكنولوجيا عن أوبن أيه.آي، أن النسخ المتاحة حالياً قاصرة على مستخدمي شات جي.بي.تي بلس، وتيمز، وإنتربرايز، وإيديو، وأن النسخة الحالية من التطبيق لويندوز، هي نسخة أولية، وأن النسخة الكاملة منه ستكون متاحة في وقت لاحق من العام الجاري.
وقالت شركة أوبن.أيه.آي: "مع طرح إصدار رسمي من تطبيق شات جي.بي.تي للكمبيوتر المكتبي، يمكن للمستخدم التعامل مع الملفات والصور باستخدام تقنية الذكاء الاصطناعي التوليدي.
ويتيح التطبيقللمستخدم أحدث التحسينات في نموذج اللغة الكبير من أوبن ايه.آي، بما في ذلك الوصول إلى أحدث وأذكى نموذج، وهو أوبن أيه.آي صفر واحد-بريفيو".
Today, ChatGPT Plus, Enterprise, Team, and Edu users can start testing an early version of the Windows desktop app.
Get faster access to ChatGPT on your PC with the Alt + Space shortcut.https://t.co/mv4ACwIhzA https://t.co/Ww6QvBfMnB pic.twitter.com/tkyodezZhv
ويمكن لتطبيق شات جي.بي.تي ويندوز العمل على أجهزة الكمبيوتر الشخصي التي تعمل بنظام ويندوز 10، لكن الإمكانيات التي يوفرها حالياً محدودة مقارنة مع عملاء الإصدرات الأخرى من شات جي.يي.دي.
كما أن هذه النسخة لا تدعم المحادثة الصوتية، بما فيها وضع الصوت المتقدم، كما أن بعض الارتباطات مع جي.بي.تي ستور لا تعمل في هذا التطبيق.
وكما هو الحال مع تطبيق شات جي.بي.تي لنظام ماك أو.إس فإن شات جي.بي.تي ويندوز، يتيح للمستخدم تقليص حجمه إلى نافذة "مصاحبة" صغيرة بجوار تطبيقات أخرى أثناء العمل.
كما يتيح تحميل الملفات والصور لتلخيص المستندات وإنشاء الصور باستخدام مولد الصور دال إي3 من أوبن أيه.آي.
المصدر: موقع 24
كلمات دلالية: عام على حرب غزة إيران وإسرائيل إسرائيل وحزب الله السنوار الانتخابات الأمريكية غزة وإسرائيل الإمارات الحرب الأوكرانية الذكاء الاصطناعي شات جي بي تي شات جی بی تی أوبن أیه آی
إقرأ أيضاً:
خلال محاكمة.. الذكاء الاصطناعي يحيل إلى مرجع غير موجود
في محاكمة بين "أنثروبيك" للذكاء الاصطناعي وأصحاب حقوق ملكية فكرية، تضمنت مذكرة قضائية للدفاع عن الشركة الناشئة إشارة إلى مرجع وهمي لا وجود له.
بدأ الذكاء الاصطناعي يغير تدريجيا طريقة العمل في المجال القضائي. فبينما تسهّل هذه الأداة البحث في السوابق القضائية، يجب أن تخضع مخرجاتها للمراقبة بسبب قدرتها على الهلوسة.
وقد برز هذا مؤخرًا في محاكمة بين شركة "أنثروبيك" للذكاء الاصطناعي وشركات موسيقية. في أكتوبر 2023، طلبت شركات موسيقى من القضاة الاتحاديين في ولاية كاليفورنيا حظر استخدام دليلها الموسيقي لتدريب نماذج الذكاء الاصطناعي الخاصة بشركة "أنثروبيك".
رفض القضاة هذا الطلب في مارس 2025، معتبرين أنه لا يوجد دليل على ضرر لا يمكن إصلاحه. بعد ذلك، رفع المدعون دعوى قضائية أخرى تتعلق بانتهاك حقوق الطبع والنشر. تكمن إحدى نقاط الخلاف الرئيسية في هذه القضية في فحص حجم العينة المتفاعلة مع أداة "كلود" للذكاء الاصطناعي التابعة لشركة "أنثروبيك"، لتحديد وتيرة إعادة إنتاج الذكاء الاصطناعي لكلمات الأغاني المحمية أو توليدها.
مرجع وهمي
قدمت أوليفيا تشين، عالمة البيانات في شركة "أنثروبيك"، مذكرة إلى المحكمة تُجادل فيها بأن عينة من مليون تفاعل مستخدم كافية لتقديم "معدل انتشار معقول" لظاهرة نادرة: مستخدمو الإنترنت يبحثون عن كلمات الأغاني. وقدّرت أن هذه الحالة لا تُمثل سوى 0.01% من التفاعلات. وفي شهادتها، استشهدت بمقال أكاديمي نُشر في مجلة "الإحصائي الأميركي" تبيّن لاحقا أنه غير موجود.
طلب المدعون من المحكمة استدعاء أوليفيا تشين ورفض أقوالها بسبب الإحالة إلى هذا المراجع الزائف. ومع ذلك، منحت المحكمة شركة "أنثروبيك" وقتًا للتحقيق. وقد وصف محامي الشركة الناشئة الحادثة بأنها "خطأ بسيط في الاستشهاد"، وأقرّ بأن أداة "كلود" للذكاء الاصطناعي استُخدمت "لتنسيق ثلاثة مراجع ببليوغرافية على الأقل بشكل صحيح". وفي هذا السياق، اخترع الذكاء الاصطناعي مقالاً وهمياً، مع مؤلفين خاطئين لم يعملوا معًا قط.
تجنب أخطاء الذكاء الاصطناعي
تُسلّط هذه الحادثة الضوء على الانتشار المُقلق للأخطاء الناتجة عن الذكاء الاصطناعي في الإجراءات القانونية، وهي ظاهرة متنامية تُعرّض الشركات لمخاطر جسيمة، لا سيما عندما يعتمد محاموها على هذه الأدوات لجمع المعلومات وصياغة الوثائق القانونية.
يقول برايان جاكسون، مدير الأبحاث في مجموعة Info-Tech Research Group "خلق استخدام الذكاء الاصطناعي نوعًا من الكسل الذي أصبح مصدر قلق في المجال القانوني". ويضيف: "لا ينبغي استخدام أدوات الذكاء الاصطناعي كحل شامل لإنتاج الوثائق اللازمة للملفات القضائية".