هل يجب أن أكون مؤدبا مع ChatGPT؟.. نخبرك ما نعرفه عمّا يترتب على ذلك
تاريخ النشر: 22nd, April 2025 GMT
رغم أن النماذج اللغوية أو ما يطلق عليها "روبوتات الذكاء الاصطناعي" لا تشعر بالإهانة أو التقدير، فإن الأرقام تقول إن نصف من يستخدمون ChatGPT على سبيل المثال تقريبًا يخاطبونه بأدب، على غرار زملاء العمل أو الأصدقاء.
ويطرح هذا السلوك "المهذب" أسئلة أعمق من قبيل: لماذا نتعامل بلطف مع برنامج لا يملك مشاعر؟ وهل يؤثر ذلك فعلًا على أدائه؟ أم أننا، في الواقع، نفعل ذلك لأنفسها وليس للآلة؟.
وفي حين أن ChatGPT لا يكترث للأمر، قائلا ردا على سؤالنا إذا ما كان يفضل أن نخاطبه بأدب، بأنه لا يحتاج إلى ذلك لأنه ببساطة لا يشعر بالإهانة كما لا يشعر بالاحترام، لكنه أنه أشار إلى أن الأمر يتعلق بشخصية المستخدم وأسلوبه وقول كلمات من قبيل "لو سمحت" و"شكرا"، يجعل الحوار ألطف.
لكن مبتكر ChatGPT لديه رأي قد تعتبره غريبا في هذا الشأن، لكنه يحمل تبريرا قويا ومعتبرا "إنسانيا" ومنطقيا، سنخبرك به في نهاية هذه المادة.
بحسب، غابرييل واسكو، التي تكتب في العلوم السلوكية وعلم النفس، فإن استخدام اللغة المؤدبة مع نماذج الذكاء الاصطناعي لها ثلاثة تفسيرات؛ هي التجسيد، والأعراف الاجتماعية، ومبدأ المعاملة بالمثل.
التجسيد
التجسيد هو أن نُنسب صفات بشرية - كالأفكار والمشاعر والعواطف - إلى كيانات غير بشرية. وفي هذه الحالة، أن نتحدث مع الذكاء الاصطناعي لا شعوريا كما لو كان بشريا.
يستخدم الدماغ البشري التجارب الشخصية لهم ما لا يعرفه، أي أنه من الأسهل أن يتعامل مع روبوت الذكاء الاصطناعي على أنه دماغ وشبكات عصبية بدلا من خوارزميات معقدة وقواعد بيانات تقوم بصياغة مخرجات.
وبعد تفاعل لساعات مع روبوت الذكاء الاصطناعي فليس من المُستغرب بحسب واسكو أن نبدأ في تعزيز مثل هذا التواصل الشخصي لا سيما أن الإصدارات اللاحقة من ChatGPT على سبيل المثال يمكنها إجراء محادثات صوتية فورية بصوت بشري مقنع.
كما يلعب التقدم التكنولوجي الكبير لـ ChatGPT دورا في الأمر لأنه يستطيع معرفة حالتك النفسية، أو المزاجية، من بعض الكلمات، أو من نبرة صوتك، ويمنك وهما مقنعا للغاية لما يعرف بـ"التعاطف الحاسوبي".
الأعراف الاجتماعية
حتى بالنسبة لمن يعاملون ChatGPT على حقيقته، قد تتسلل بعض المجاملات إلى المحادثات كما لو كانت أمرًا طبيعيًا. وكل هذا بفضل الأعراف الاجتماعية: القواعد غير المكتوبة التي تحكم سلوكنا في مواقف اجتماعية معينة، والتي غُرست فينا منذ الصغر.
على الرغم من أن المجتمع قد يبدو أكثر وقاحة، يستخدم 88% من الآباء عبارتا "من فضلك" و"شكرا" بانتظام مع أطفالهم، وتترسخ هذه العادات فينا حتى يصبح التخلص منها يتطلب جهدا أكبر من الكثير من مجرد التصرف على طبيعتنا والتحلي بالأدب.
على جانب آخر، تقول شيري توركل، عالمة النفس السريري والمديرة المؤسِّسة لمبادرة معهد ماساتشوستس للتكنولوجيا حول التكنولوجيا والذات، إنّ التصرّف بأدب مع الذكاء الاصطناعي "علامة احترام" - ليس للآلة بل للذات.
وتضيف: "الأمر يتعلق بك". يكمن الخطر، من وجهة نظرها، في أننا قد نعتاد على استخدام لغة فظة وغير مُحترمة ودكتاتورية مع الذكاء الاصطناعي، ثم نتصرف بنفس الطريقة دون قصد مع الآخرين.
وقالت إن بعض الآباء، بدأوا يشتكون في السنوات الأخيرة من أن أطفالهم، الذين اعتادوا على إصدار الأوامر بصوت عالٍ للمساعدين الافتراضيين الآليين مثل "سيري" و"أليكسا"، أصبحوا أقل احترامًا.
وفي عام 2018، سعت غوغل إلى معالجة هذا الأمر من خلال تقديم ميزة تسمى "Pretty Please" لمساعد غوغل كوسيلة لتشجيع الأطفال على استخدام لغة مهذبة عند تقديم الطلبات.
انحياز المعاملة بالمثل
ماذا لو استولت الروبوتات في يوم من الأيام على السلطة، وأصبح الذكاء الاصطناعي هو المسيطر؟، عندها سيكون الذين استخدموا اللغة المؤدبة معه، على الجانب الصحيح من التاريخ!
ليس الأمر مبالغة، لكن الإنسان بطبيعته يحب أن يكون الآخرون لطيفين معه بالمقابل، والذكاء الاصطناعي في هذه الحالة ليس استثناء.
عندما تطلب من أحد أفراد العائلة على سبيل المثال عند طلب ما "من فضلك" فأنت تريده أن يشعر بالذنب إذا لم يمتثل لطلب اللطيف، وعليه تصبح فرص أن يقوم بهذا الأمر أكبر، وقول "شكرا" في وقت لاحق، يعطي شعورا بالتقدير والامتنان لهذا الفعل.
وبحسب وارسكو، ينطبق الأمر نفسه على تفاعلاتنا مع روبوتات الدردشة. لكن ChatGPT لا يمتلك مشاعر، وقد لا تُجدي اللطافة هنا، كن في نهاية الأمر يستخدم الإنسان اللباقة للحصول على نتيجة أفضل.
هل نحصل على نتيجة أفضل؟
في استطلاع رأي عبر الإنترنت أجراه إيثان موليك، الأستاذ المشارك في جامعة بنسلفانيا، قال ما يقرب من نصف المشاركين إنهم غالبًا ما يكونون مهذبين مع روبوتات الدردشة الذكية، بينما قال حوالي 16% فقط إنهم "يُصدرون الأوامر فقط".
تعكس تعليقات المطورين، المنشورة في منتدى تستضيفه OpenAI، الشركة التي أنشأت ChatGPT، هذا التوجه أيضًا: كتب أحد المستخدمين: "أجد نفسي أستخدم كلمتي "من فضلك" و"شكرًا" مع ChatGPT لأنها الطريقة التي أتحدث بها مع شخص حقيقي يُساعدني".
ووفقًا لدراسة حديثة نُشرت من قِبل فريق في جامعة واسيدا ومركز RIKEN لمشروع الذكاء المتقدم، وكلاهما في طوكيو. وجد الباحثون أن استخدام المحفزات المهذبة يمكن أن يُنتج استجابات عالية الجودة من النماذج اللغوية الكبيرة التي تقوم عليها روبوتات الدردشة القائمة على الذكاء الاصطناعي.
لكن على جانب آخر، قد يؤدي الإطراء المبالغ فيه إلى تدهور أداء النماذج اللغوية، ويوصي القائمون على الدراسة بالاعتدال في "التهذيب".
ويقول ناثان بوس، الباحث المشارك الأول في جامعة جونز هوبكنز الذي يدرس أنماط العلاقات بين البشر والذكاء الاصطناعي - والذي لم يكن مشاركًا في الدراسة المشار إليها - إن الذكاء الاصطناعي يُعطي ما تُدخله إليه، بمعنى. قد تُوجّه التحفيزات المهذبة النظام لاسترجاع معلومات من مصادر أكثر تهذيبًا، وبالتالي أكثر مصداقية، أما التحفيز الساخر مثلا فقد يكون له تأثير معاكس، إذ يُوجّه النظام إلى نقاشات على مواقع أقل مصداقية مثل "ريديت".
الدكتور إدواردو بينيتيز ساندوفال باحث في مجال الروبوتات الاجتماعية في كلية الفنون والتصميم بجامعة نيو ساوث ويلز للفنون والتصميم والهندسة المعمارية، وتغطي خبرته جوانب مختلفة من هذا المجال، بما في ذلك التفاعل بين الإنسان والروبوت. يقول إن هناك اهتمامًا متزايدًا بفهم ديناميكيات كيفية تفاعل الآلات مع البشر بطرق هادفة.
ويقول ساندوفال: "من منظور التصميم، لدينا مبادئ في مجال الروبوتات الاجتماعية تنص على أن التفاعلات بين الإنسان والروبوت يجب أن تكون ممتعة، ومتبادلة، وشاملة، وعالمية. أعتقد أنه يمكننا القول إن أحد جوانب هذا هو التفاعل بطرق محترمة ومراعية، أي التحلي باللباقة."
ويتابع: "بالطبع، إنها آلات، لذا لا يمكنها حقًا الاهتمام بكيفية توجيهنا لها، ويجب ألا ننسى هذا، ولكن إذا أخذنا سيارة، على سبيل المثال، فإننا نعتني بها من خلال القيادة بحذر، وصيانتها، وأنواع أخرى من الأفعال التي تُشبه اللباقة".
ويؤكد إن الأدب قد لا يُحسّن تجربة المستخدم فحسب، بل يُمكّن أيضًا الذكاء الاصطناعي المُولّد من تقديم نتائج ومخرجات عالية الجودة.
ويرى الخبير في مجال الروبوتات الاجتماعية، أن تفاعلاتنا مع الذكاء الاصطناعي تُدرّبه باستمرار على كيفية التصرف في المستقبل. ومن هذا المنطلق، يُمكن أن يُساعد التحلّي بالأدب في الحفاظ على معيار للتفاعلات المُهذّبة بين الإنسان والروبوت.
صانع ChatGPT له رأي آخر
رغم أنه لا يقولها صراحة، لكن لو قدر له أن يكون أكثر صراحة، لطلب الرئيس التنفيذي لشركة OpenAI من الناس أن لا يكونوا مؤدبين مع نموذج الذكاء الاصطناعي ChatGPT، لكنه بنفس الوقت لا يقول إنه علينا معاملتها بقلة ذوق.
الموضوع بالنسبة لألتمان هو اقتصادي بحت، لا يعتمد على المشاعر بقدر ما يتعمد على الأرقام الحسابات، حيث أشار مازحا على أحد المستخدمين على شبكة "إكس" عندما سأل عن تكلفة الأدب مع نماذج الذكاء الاصطناعي، وكم تتكبد الشركة من المال عندما نقول لـ ChatGPT، "من فضلك" و"شكرا" ويضطر للإجابة عليها، قائلا إن الأمر يكلف الشركة ملايين الدولارات.
يعود الأمر إلى أن نماذج الذكاء الاصطناعي تستهلك كما كبيرا من الطاقة، وتكلف الردود والكلمات مع الروبوت طاقة أكبر من غيره.
ووفقا لغولدمان ساكس، يستهلك كل استعلام من المستخدم لنموذج الذكاء الاصطناعي ChatGPT-4 حوالي 10 أضعاف الكهرباء التي يستهلكها محرك بحث "غوغل" للإجابة على نفس الاستعلام.
كما تستخدم شركة OpenAI الماء لتبريد الخوادم التي تُولّد البيانات. وأشارت دراسة من جامعة كاليفورنيا - ريفرسايد، إلى أن استخدام GPT-4 لتوليد 100 كلمة يستهلك ما يصل إلى ثلاث زجاجات من الماء، ويمكن أن تستهلك عبارة "على الرحب والسعة" حوالي 1.5 أونصة من الماء.
الخلاصة
كن مؤدبا مع نماذج الذكاء الاصطناعي بشكل معقول، وحاول أن لا تدردش معها كثيرا دون داع من باب المسؤولية المشتركة التي تقع علينا كبشر في الحفاظ على الطاقة وموارد الماء على الكوكب.
المصدر: عربي21
كلمات دلالية: سياسة اقتصاد رياضة مقالات صحافة أفكار عالم الفن تكنولوجيا صحة تفاعلي سياسة اقتصاد رياضة مقالات صحافة أفكار عالم الفن تكنولوجيا صحة تفاعلي سياسة سياسة عربية مقابلات حقوق وحريات سياسة دولية الذكاء الاصطناعي التكنولوجيا اقتصادي الطاقة اقتصاد تكنولوجيا طاقة ذكاء اصطناعي المزيد في سياسة سياسة سياسة سياسة سياسة سياسة سياسة سياسة سياسة سياسة سياسة سياسة سياسة اقتصاد رياضة صحافة قضايا وآراء أفكار عالم الفن تكنولوجيا صحة نماذج الذکاء الاصطناعی مع الذکاء الاصطناعی على سبیل المثال من فضلک التی ت
إقرأ أيضاً:
من صورة إلى وهم.. الوجه الآخر لتريند الذكاء الاصطناعي
في زمنٍ أصبحت فيه ضغطة زر كفيلة بتغيير ملامح الوجه ولون العين وحتى تفاصيل الجسد، تحوّل الذكاء الاصطناعي من أداة تقنية إلى تريند يجتاح مواقع التواصل الاجتماعي، فلم يعد تعديل الصور يقتصر على تحسين الإضاءة أو إزالة العيوب، بل تخطى ذلك إلى خلق صورة جديدة قد تنفصل تماماً عن الحقيقة، ورغم بريق المتعة والإبهار الذي يقدمه هذا التوجه، إلا أن آثاره السلبية باتت مقلقة، من تزوير الهوية وتشويه الواقع، إلى تعزيز معايير جمالية زائفة، وانعكاسات نفسية واجتماعية قد تترك جروحاً عميقة في وعي الأفراد، خصوصاً الشباب والمراهقين.
هذا التحقيق يُطلق صافرة إنذار بشأن الخطر الذي يهدد صورنا الشخصية، ليناقش كيف يمكن للذكاء الاصطناعي أن يحوّل «صورتك» من مجرد بكسلات إلى أداة لجمع المعلومات، وكيفية حماية نفسك من الوقوع في فخ التسريب أو الاستخدام غير الأخلاقي، مؤكدين على قاعدة أساسية، وهي أن الوعي الأمني للمستخدم هو خط الدفاع الأول والأخير عن هويته الرقمية.
عدسة الخداع.. حين يصنع الذكاء الاصطناعي واقعا غير موجودقال الدكتور محمد بحيري، مدرس الذكاء الاصطناعي بالجامعة المصرية الروسية، إن أدوات تعديل الصور المدعومة بالذكاء الاصطناعي، مثل جيميني من جوجل وشات جي بي، تعمل وفق آليات تضمن الحفاظ على خصوصية المستخدم.
وأضاف «بحيري» في تصريحاته لـ «الأسبوع»: «البرامج المعتمدة تلتزم بمعايير أخلاقية صارمة، فالصور يتم رفعها بواسطة المستخدم الذي يتحمل مسؤوليتها، فالبرنامج لا يمكنه تغيير محتوى الصورة بشكل جذري ومخالف لأخلاقيات المستخدم (كمن يرفع صورة محجبة) إلا إذا طلب هو ذلك صراحةً، وهذه البيانات تُخزَّن وتُستخدم في نماذج تدريب ضخمة، لكن البرامج الموثوقة -الخاضعة لاتفاقيات مثل اللائحة العامة لحماية البيانات (GDPR) والتي تخص حقوق الملكية والبيانات- لا تُصرّح باستخدام هذه الصور لأي أغراض أخرى خارج نطاق الخدمة المباشرة».
وحذّر « بحيري» من مخاطر التسريب، قائلاً: «لا يوجد دليل على حدوث تسريب للصور من برامج مثل جيمني جوجل أو شات جي بي تي، لكن الخطر يكمن في البرامج غير الموثوقة، فإذا رفع المستخدم صوره على برنامج لا يخضع لمعايير GDPR، قد يتم استخدام تلك الصور من قِبل الشركة المطورة، حتى لو حصل المستخدم على النتيجة المطلوبة، لذا فعلينا أن نعي أن أي برنامج، بما في ذلك البرامج العملاقة، قد يكون عرضة للاختراق في المستقبل، مما يجعل الوعي بجهة الاستخدام أمراً حتمياً».
واستطرد: «عند البحث في متاجر التطبيقات، يجد المستخدم عشرات البرامج تحمل أيقونة شات جي بي تي نفسها، يجب على المستخدم أن يكون واعياً لمعرفة البرنامج المعتمد من غيره، حتى لا يقع فريسة لبرامج تستغل صوره في أغراض غير أخلاقية أو مسيئة».
وفيما يتعلق بالمخاطر المستقبلية الأعمق، أشار «بحيري» إلى أن التحدي لا يقتصر على استخدام الصور بشكل مسيء أو فردي، بل في جمع البيانات الضخمة لتكوين ملف شامل عن الشعوب.
واختتم «بحيري» حديثه، بالقول: «الذكاء الاصطناعي يجمع خصائص الصور ويُحلل ملامح المصريين وأشكالهم وتصرفاتهم التي يستخلصها من تفاعلاتهم مع البرنامج، والهدف هنا هو بناء ما نسميه «الثقافة الخفية» للشعب، فإذا أصبح هناك اتفاق عالمي مستقبلاً على إمكانية استنساخ أشكال أو شخصيات رقمية، فإن الذكاء الاصطناعي سيكون لديه النموذج العام (General Visual Extraction) للملامح المصرية، مما يمكنه من إنتاج نسخ مطابقة للملامح بدقة عالية. لذا، فإن وعي المستخدم هو خط الدفاع الأول عند استخدام هذه الأدوات».
الذكاء الاصطناعي والتجميل الرقمي: زينة عابرة أم تهديد للهوية؟من جانبه، أكد الدكتور محمد الحارثي، استشاري أمن المعلومات، على أهمية الوعي الأمني للمستخدمين عند التعامل مع أدوات تعديل وتوليد الصور بالذكاء الاصطناعي، مشدداً على أن البيانات الشخصية هي المسؤولية الأولى والأخيرة للمستخدم.
وأضاف «الحارثي» لـ «الأسبوع»: «من المهم أن نعي جميعاً، وبخاصة الأطفال واليافعين، أن صورنا الشخصية التي تُرفع على هذه التطبيقات قد تظل قابلة للاستخدام من قِبل طرف ثالث، فبياناتنا لا تُسجل فقط لدينا أو لدى الشركة المالكة للتطبيق، . ورغم أن صورنا موجودة بالفعل على منصات التواصل الاجتماعي، إلا أننا ننصح دائماً بضرورة التعامل بحرص شديد مع البيانات الشخصية عند التفاعل مع أي وسيلة لتوليد الصور عبر الذكاء الاصطناعي».
وشدد «الحارثي» على نقطتين حاسمتين لتقليل المخاطر القانونية والأمنية، تتمثل في استخدام الصور الشخصية فقط، إذ يجب أن يتعامل المستخدم مع صوره الشخصية فقط، وليس صور الآخرين، فقد ظهرت بالفعل ترندات تشجع على استخدام صور شخصيات أخرى، وهذه مشكلة تترتب عليها إجراءات قانونية سواء محلياً أو دولياً، لانتهاكها حقوق ملكية الصورة أو استغلالها، لذا يجب أن نكون حريصين جداً على عدم المساس بحقوق الآخرين.
إلى جانب، تجنب الترندات غير المفيدة، فلا يجب أن ننساق وراء الترندات بمختلف أشكالها، فكثير من هذه الترندات غير مفيدة حقيقية وتُعتبر مضيعة للوقت، والأهم أنها تزيد من تعرض بياناتنا لمخاطر غير ضرورية.
وفي ختام تصريحاته، أكد «الحارثي» على احتمالية التسريب وسوء الاستخدام، حتى مع وجود الصور على السوشيال ميديا بالفعل، قائلًا: «قد يتم استغلال هذه الصور بشكل آخر في أغراض توليد محتوى مسيء أو أغراض غير أخلاقية، فصورنا موجودة بالفعل على منصات التواصل، وقد يتم استغلال هذه الصور مع طرف آخر، ولا نمنع الناس من الاستمتاع أو التفاعل مع التكنولوجيا، لكن يجب أن يكونوا حريصين على نوع الصورة ونوع التعديل الذي يسمحون به، وأن يتعاملوا مع الأمر بوعي أمني عالٍ».
ظاهرة تعديل الصور بواسطة الذكاء الاصطناعي في ميزان الأرقامبقي القول إنه، وفقا لدراسات وتقارير دولية حديثة، باتت ظاهرة تعديل الصور بواسطة الذكاء الاصطناعي مرتبطة بآثار سلبية متزايدة على الأفراد والمجتمع، فقد أظهرت دراسة منشورة في دورية BMC Psychology (2023) أن الانخراط في تعديل الصور يرتبط بانخفاض الثقة بالنفس وزيادة المقارنة الجسدية، بما يؤدي إلى شعور متنامٍ بعدم الرضا عن المظهر. وفي جانب آخر، تشير الإحصاءات إلى اتساع نطاق الصور والفيديوهات المزيفة «Deepfake»، حيث كشف استطلاع دولي أن نحو 60% من المستهلكين واجهوا محتوى مزيفاً خلال العام الماضي، بينما لا تتجاوز دقة البشر في تمييز الصور الحقيقية من المزيفة 53% فقط، وهو ما يعادل تقريباً مستوى الصدفة، كما خلصت دراسات إلى أن أقل من 0.1% من المستخدمين استطاعوا التفريق بشكل كامل بين الصور والفيديوهات الحقيقية والمزيفة، وهذه الأرقام تكشف عن خطورة الظاهرة، ليس فقط على مستوى الهوية الفردية وتشويه الواقع، وإنما أيضاً في تعزيز معايير جمالية زائفة قد تترك آثاراً نفسية عميقة، خاصة بين الشباب والمراهقين.
اقرأ أيضاًمن السكك الحديدية إلى الذكاء الاصطناعي.. محطة بشتيل وتحقيق حلم النقل الذكي
النقل الذكي في مصر.. ثورة التكنولوجيا التي تعيد تشكيل شوارعنا