تحذير من استخدام شات جي بي تي في الدعم النفسي والعاطفي
تاريخ النشر: 27th, July 2025 GMT
وكالات
يجب على مستخدمي “شات جي بي تي” التفكير مليًا قبل اللجوء إلى روبوت الدردشة من أجل العلاج النفسي أو أي نوع آخر من الدعم العاطفي.
وأكد سام ألتمان، الرئيس التنفيذي لشركة “OpenAI”، إن صناعة الذكاء الاصطناعي لم تكتشف بعد كيفية حماية خصوصية المستخدم في مثل هذه المحادثات الأكثر حساسية، نظرًا لعدم وجود سرية بين الطبيب والمريض عندما يكون طبيبك ذكاءً اصطناعيًا.
وقال ألتمان إن إحدى المشكلات الناتجة عن غياب إطار قانوني أو سياسي للذكاء الاصطناعي حتى الآن هي عدم وجود سرية قانونية لمحادثات المستخدمين مع الذكاء الاصطناعي.
وأضاف ألتمان: “الناس يتحدثون عن أكثر الأمور الشخصية في حياتهم مع شات جي بي تي”، مضيفًا: “الناس يستخدمونه -الشباب خصوصًا يستخدمونه- كمعالج نفسي، أو مدرب حياة… (ويسألونه) “ماذا يجب أن أفعل؟”.
المصدر: صحيفة صدى
كلمات دلالية: الخصوصية الدعم النفسي الذكاء الاصطناعي شات جي بي تي
إقرأ أيضاً:
كيف استخدمت إٍسرائيل الذكاء الاصطناعي سلاحا في حربها على غزة؟
فقد طور الاحتلال أكثر من أداة للذكاء الاصطناعي لتسهل على مراكز القيادة والسيطرة أداء مهماتهم العسكرية، فبدلا من استخدام 20 ضابطا من الاستخبارات لتحديد 100 هدف سنويا في القطاع، استطاع الذكاء الاصطناعي تسريع وتيرة الاستهداف لتصل لتحديد 200 هدف خلال 12 يوما فقط.
وتظهر الأهداف على هاتف عسكري محمول وباستخدام تطبيق يظهر لكل فريق في الجيش الأهداف التي عليه التعامل معها وكأنها لعبة فيديو.
تقرير: محمود إلكن
Published On 7/10/20257/10/2025|آخر تحديث: 21:06 (توقيت مكة)آخر تحديث: 21:06 (توقيت مكة)انقر هنا للمشاركة على وسائل التواصل الاجتماعيshare2شارِكْ
facebooktwitterwhatsappcopylinkحفظ