تحذير من رئيس تشات جي بي تي.. تحقق دائماً قبل أن تثق بالإجابات!
تاريخ النشر: 17th, August 2025 GMT
في عصر الذكاء الاصطناعي، أصبح ChatGPT أحد أشهر الأدوات الرقمية للحصول على إجابات سريعة لمختلف الأسئلة. لكن حتى مع التطورات الكبيرة في نموذج GPT-5، يحذر رئيس ChatGPT المستخدمين من الاعتماد الكامل على المعلومات التي تقدمها الأداة، مؤكدًا أن التحقق الدائم قبل الثقة بالإجابات أصبح ضرورة.
هذا التحذير يسلط الضوء على حدود الذكاء الاصطناعي ويذكرنا بأن التكنولوجيا، مهما كانت متطورة، لا يمكن أن تحل محل الخبرة البشرية الدقيقة.
اقرأ أيضاً.. الذكاء الاصطناعي يتقن الخداع!
الذكاء الاصطناعي كمرجع ثانوي وليس أساسي
رغم التحسينات الكبيرة في GPT-5، يوصي خبراء OpenAI باستخدام ChatGPT كمصدر ثانوي فقط، وليس كمرجع نهائي للمعلومات. فالنظام لا يزال معرضًا للخطأ، ويميل أحيانًا إلى اختلاق معلومات، وهي ظاهرة تعرف باسم "الهلوسة". لذلك، من المهم دائمًا التحقق من المعلومات عبر مصادر موثوقة أو خبراء متخصصين.
كيف ولماذا تحدث "الهلوسة" في ChatGPT
تعمل نماذج الذكاء الاصطناعي التوليدي على توقع الإجابة الأكثر احتمالًا استنادًا إلى بيانات التدريب، لكنها لا تمتلك فهمًا حقيقيًا للحقائق. هذا يعني أن الإجابات قد تكون دقيقة في بعض الحالات، لكنها قد تكون مضللة في حالات أخرى. لذلك، يعتمد نجاح استخدام ChatGPT على التوازن بين الاعتماد عليه والتحقق المستمر من المعلومات.
أخبار ذات صلة
GPT-5.. تحسينات كبيرة لكنها ليست مثالية
وفقاً لموقع Cent، أكد رئيس ChatGPT أن GPT-5 يمثل تحسينًا ملموسًا في تقليل الأخطاء والهلوسة، لكنه لا يزال بعيدًا عن الكمال. الأداء الأفضل يكون عند ربط الأداة بمصادر موثوقة أو بيانات داخلية دقيقة، مثل محركات البحث أو قواعد البيانات الرسمية، ما يزيد من دقة الإجابات ويحد من المخاطر المحتملة.
اقرأ أيضاً.. تحذيرات علمية.. أدوات البحث بالذكاء الاصطناعي تختلق مصادر وروابط وهمية
نصائح مهمة للمستخدمين
. تحقق دائمًا من المعلومات من مصادر موثوقة قبل اتخاذ أي قرار.
. لا تعتمد على الروابط أو الملخصات التي يقدمها ChatGPT دون تدقيق؛ فقد تحتوي على تحريف.
. استخدم الأداة كمرجع ثانوي أو مساعد، وليس كمصدر نهائي للحقائق.
. كن حذرًا عند التعامل مع معلومات مالية أو طبية أو قانونية؛ استشر دائمًا مختصين مؤهلين.
في النهاية، يذكرنا هذا التحذير أن الذكاء الاصطناعي مهما بلغ من قوة لا يمكن أن يحل محل العقل البشري تمامًا. فالثقة العمياء قد تقود إلى أخطاء كارثية، بينما الجمع بين دقة التقنية وحكمة الإنسان هو السبيل الوحيد لبناء مستقبل أكثر وعيًا وأمانًا.
إسلام العبادي(أبوظبي)
المصدر: صحيفة الاتحاد
كلمات دلالية: تشات جي بي تي الذكاء الاصطناعي الذكاء الذکاء الاصطناعی
إقرأ أيضاً:
الذكاء الاصطناعي في تشخيص الأورام «خطر»
كشفت دراسة طبية جديدة مشتركة خطورة الاعتماد المفرط على تقنيات الذكاء الاصطناعي في إجراءات الكشف عن الأورام، قد يؤدي إلى تراجع مهارات الأطباء في التشخيص عند غياب هذه التقنيات.
ووفقا للدراسة الحديثة التي نشرتها الدورية الطبية «ذا لانست» بقسم أمراض الجهاز الهضمي والكبد، فإن أطباء الجهاز الهضمي، الذين اعتادوا استخدام أنظمة الذكاء الاصطناعي أثناء إجراء تنظير القولون، سجلوا انخفاضا في معدلات اكتشاف مؤشرات الأورام بنحو 6 نقاط مئوية عند أداء الفحوص دون دعم تقني.
وشملت الأبحاث أطباء من أربعة مراكز لتنظير القولون في بولندا ضمن برنامج تجريبي يهدف إلى دراسة دور الذكاء الاصطناعي في تحسين فرص الوقاية من السرطان، حيث شارك في إعداد الدراسة فريق من الأطباء والباحثين من بولندا والنرويج والسويد والمملكة المتحدة واليابان.
ويطرح هذا الاكتشاف تساؤلات حول التوازن المطلوب بين الاستفادة من تقنيات الذكاء الاصطناعي في الرعاية الصحية والحفاظ على الكفاءة البشرية في التشخيص، ويرى خبراء أن هذه النتائج جرس إنذار لمستقبل الممارسة الطبية؛ إذ قد يؤدي الاعتماد المفرط على الأدوات الذكية إلى فقدان بعض المهارات الإكلينيكية المكتسبة على مر السنين، وهي مهارات تصعب استعادتها إذا لم تمارس بانتظام.