نشرت صحيفة " الغارديان " تقريرا للصحفي جون سيلف قال فيه إن رواية "برج التعاطف طوكيو" أثارت جدلا واسعا لكونها مكتوبة جزئيا باستخدام الذكاء الاصطناعي، متسائلا:" هل تعتقد مؤلفتها أن هذه التقنية قادرة على كتابة رواية أفضل من الإنسان؟".

تقول الروائية اليابانية راي كودان: "لا أشعر بأي حزن على استخدام عملي لتدريب الذكاء الاصطناعي، حتى لو نُسخ، فأنا واثقة من أن جزءا مني سيبقى، ولن يستطيع أحد نسخه".



تحدثت الكاتبة، البالغة من العمر 34 عاما، مع صحيفة الغارديان عبر تطبيق زووم من منزلها بالقرب من طوكيو، قبل نشر الترجمة الإنجليزية لروايتها الرابعة "برج التعاطف طوكيو"، والتي أثارت جدلا واسعا في اليابان عقب فوزها بجائزة مرموقة، على الرغم من أن جزءًا منها كُتب باستخدام "شات جي بي تي" أحد أفضل تطبيقات الذكاء الاصطناعي.

وتدور أحداث رواية "برج التعاطف طوكيو" حول المهندسة المعمارية اليابانية سارة ماتشينا، التي كُلّفت ببناء برج جديد لإيواء المجرمين المدانين، وسيكون تمثيلا لما تسميه إحدى الشخصيات - بسخرية - "سعة الأفق الاستثنائية للشعب الياباني"، حيث سيأوي البرج المجرمين في راحة ورحمة، وفي الرواية، تتساءل سارة، وهي ضحية لجرائم عنف، عما إذا كان هذا النهج المتعاطف مع المجرمين مناسبا، وهل يعكس هذا التعاطف واقع المجتمع الياباني؟.


تقول كودان: "إنه سائد بالتأكيد"، وتضيف أن أحد دوافع كتابة الرواية كان اغتيال رئيس الوزراء السابق شينزو آبي في تموز/ يوليو 2022، "أصبح الشخص الذي أطلق النار عليه محط اهتمام كبير في اليابان - وأثارت خلفيته تعاطفا كبيرا من الناس، لقد نشأ في أسرة شديدة التدين، وحُرم من حريته، كانت هذه الفكرة تراودني منذ فترة طويلة، وعندما بدأت كتابة الرواية، عادت إلى ذهني كجزء من عملية الكتابة".
وتدور أحداث القصة حول مواقف الجمهور تجاه المجرمين، بطرق جادة وساخرة، حيث يجب على السكان المحتملين للبرج الخضوع "لاختبار التعاطف" لتحديد ما إذا كانوا يستحقون التعاطف عبر طرح أسئلة مثال عليها: "هل سبق لوالديك التصرف بعنف تجاهك؟ - نعم / لا / لا أعرف" ، وسيتخذ الذكاء الاصطناعي القرار النهائي.

فازت رواية "برج التعاطف طوكيو" بجائزة أكوتاغاوا عام ٢٠٢٤ للكتاب الجدد أو الصاعدين عند صدورها لأول مرة، وتقول كودان إنها كانت "سعيدة"، لكنها "شعرت أيضًا بالتحرر"، لأنه وبمجرد أن تبدأ مشوارك الأدبي، سيكون هناك ضغط مستمر للفوز بهذه الجائزة"، مستشهدة كيف أنها في عام ٢٠٢٢، رُشِّحت عن روايتها "تلميذة"، لكنها لم تفز، قائلة:" شعرت أنني خذلت الناس بعدم فوزي بالجائزة، وهو أمر لم أرغب في تكراره، كما تعلم، مع هذه الجائزة، تبقى معك طوال حياتك".

الصحفي جون سيلف، قال إن ما لفت انتباهي بشأن الكتاب أيضا، هو أن كودان ذكرت أن جزءًا منه - 5 في المائة - ، قد كُتب باستخدام الذكاء الاصطناعي، هو الرقم المذكور الذي عادت وقالت بأنه مجرد رقم تقدير تقريبي يشمل أجزاءً من الرواية تُعرض على أنها حوار بين إحدى الشخصيات، والواقع أن كودان استلهمت الكثير من روايتها من خلال "الحوارات مع الذكاء الاصطناعي، ومن إدراكها أنه يمكن أن يعكس عمليات التفكير البشري بطرق شيقة"، بمعنى آخر، لا يهدف استخدام كودان للذكاء الاصطناعي إلى خداع القارئ، بل إلى مساعدتنا على رؤية آثاره.

يضيف الصحفي جون بصيغة الاستفسار:" هل تخشى كودان أن يحل الذكاء الاصطناعي محل الكُتّاب البشر؟"، قبل أن يجيب بالقول:" ربما يأتي مستقبلٌ يحدث فيه ذلك، ولكن في الوقت الحالي، لا يُمكن للذكاء الاصطناعي أن يكتب رواية أفضل من كاتب بشري".

كما لفت، إلى أنه ورغم ما حظيت به رواية "برج التعاطف طوكيو" من اهتمام بين القراء اليابانيين، لاستخدامها الذكاء الاصطناعي، لكن الأهم من ذلك، كان التركيز على اللغة نفسها هو ما أثار نقاشا حقيقيا؛ كيف تؤثر تغيرات اللغة على مدى العقود القليلة الماضية حول كيفية تصرف الناس أو رؤيتهم للأشياء.

وهذا يُغذي القضية الرئيسية في صميم كتاب كودان، الذي من المفترض أن تدور رواية "برج التعاطف طوكيو" حول اللغة، إلا أن في الكتاب لم يتناول فقط كيفية تعبيرنا عن أنفسنا، بل كيفية كشفنا عن أنفسنا، حيث تقول إحدى الشخصيات: "الكلمات تُحدد واقعنا".

في الرواية، دار نقاش رئيسي بشأن نمو الكاتاكانا في اليابان، أي النص المستخدم لكتابة الكلمات المشتقة من لغات أجنبية، مقابل الكلمات المكتوبة بالكاتاكانا وهي حروف الهيراجانا والكانجي المستخدمة لكتابة الكلمات اليابانية التقليدية، وهو عده البعض ترويج للتخلي عن لغتهم الأم، لكن إيقافها ليس بالأمر السهل، وربما غير ممكن، حيث توضح كودان أنه بينما تختار الأجيال الأكبر سنا أحيانا الكاتاكانا على الكانجي، أو العكس، بالنسبة للأجيال الشابة مثلها، فإن الكاتاكانا "أصبحت معيارا لا جدال فيه.


هذه ليست مجرد تفصيل أكاديمي أو ثقافي، بل هي قضية ملحة في السياسة اليابانية اليوم، في الانتخابات اليابانية التي جرت الشهر الماضي، ازداد دعم حزب "سانسيتو" اليميني المتطرف، ففاز بـ 14 مقعدا في مجلس الشيوخ، بعد أن كان يشغل مقعدا واحدا فقط سابقا، ويحمل الحزب شعار "الشعب الياباني أولا"، وهو شعار يردد صدى شعار دونالد ترامب وماغا "أمريكا أولا"، وقد أثار نجاحه مخاوف من رد فعل عنيف ضد الأجانب، فهل سيُقدّر هذا الحزب التنوع في اليابان؟.

كودان تجيب بالقول:" للأسف، الحقيقة هي أن ليس كل اليابانيين يرحبون بالتنوع", مستشهدة بحادثة مرت بها شخصيا وكيف أن والدتها شعرت بالحزن العميق بعد أن عرفتها على صديق أجنبي لها غير ياباني قبل اثني عشر عاما، واصفة ما حدث بأنها:" كانت أكبر صدمة في حياتي أن أرى والدتي تتصرف بهذه الطريقة، لم أكن أتصورها أبدا أشخاص من حولي يمارسون التمييز ضد الأجانب ويحملون هكذا الآراء".

وفي محاولة لتبرير محاولاتها نحو التجديد، توضح كودان أن حزب سانسيتو يستخدم في شعاره "الشعب الياباني أولا" كلمة كاتاكانا التي تعني "أولا"، بدلا من كلمة كانجي اليابانية التقليدية، وتقول كودان: "باستخدام ما يعادلها في كاتاكانا، يمكن استبدال الكثير من الارتباطات السلبية بأخرى محايدة، هذا لا يُثير الناس بالطريقة نفسها".

بعبارة أخرى، يخلق هذا نوعا من الإنكار المعقول؟ وتختتم كودان قائلة: "نعم، نعم. إنهم يعرفون بالضبط ما يفعلونه. ولهذا السبب يتطلب هذا الاستخدام للكاتاكانا اهتمامنا. عندما يستخدم شخص ما كاتاكانا، يجب أن نسأل: ما الذي يحاول إخفاءه؟".

المصدر: عربي21

كلمات دلالية: سياسة اقتصاد رياضة مقالات صحافة أفكار عالم الفن تكنولوجيا صحة تفاعلي سياسة اقتصاد رياضة مقالات صحافة أفكار عالم الفن تكنولوجيا صحة تفاعلي من هنا وهناك المرأة والأسرة حول العالم المرأة والأسرة كتاب الروايات المرأة والأسرة المرأة والأسرة المرأة والأسرة المرأة والأسرة المرأة والأسرة المرأة والأسرة سياسة سياسة من هنا وهناك من هنا وهناك من هنا وهناك من هنا وهناك من هنا وهناك من هنا وهناك من هنا وهناك سياسة اقتصاد رياضة صحافة قضايا وآراء أفكار عالم الفن تكنولوجيا صحة الذکاء الاصطناعی فی الیابان

إقرأ أيضاً:

دراسة.. يميل الناس إلى الغش عند استخدام الذكاء الاصطناعي

أظهرت دراسة جديدة نُشرت في مجلة "نيتشر" (Nature) أن الناس يميلون إلى التصرف بشكل غير نزيه عندما يفوضون المهام إلى أنظمة الذكاء الاصطناعي، ووضحت الدراسة أن بعض طرق التفاعل مع الذكاء الاصطناعي قد تزيد بشكل كبير من حالات الغش، وأن هذه الأنظمة أكثر عرضة للامتثال للطلبات غير الأخلاقية من البشر.

ومن المعروف أن الذكاء الاصطناعي هو عبارة عن أنظمة برمجية قادرة على أداء مهام تتطلب ذكاء بشريا مثل اتخاذ القرارات وفهم اللغة، ومع تزايد الاعتماد على هذه الأنظمة في مجالات الحياة المختلفة، من إدارة الاستثمارات إلى قيادة السيارات ظهر مفهوم "تفويض الآلة"، وهو ما أثار تساؤلات حول مخاطره الأخلاقية المحتملة.

وسعى فريق دولي من الباحثين، بقيادة نيلس كوبيس من جامعة "دويسبورغ-إيسن" وزوي رحوان من معهد "ماكس بلانك" للتنمية البشرية، إلى دراسة ما إذا كان تفويض مهمة إلى آلة أو نظام ذكاء اصطناعي سيجعل الناس أكثر ميلا للتصرف بطريقة غير نزيهة لتحقيق مكاسب شخصية.

وكانت الفرضية الأساسية هي أن الناس غالبا ما يتجنبون التصرف بشكل غير أخلاقي بسبب التكلفة الأخلاقية، أي أنهم يشعرون بالذنب أو الخوف من نظرة الناس إليهم على أنهم غير نزيهين، ولكن عندما يفوض الشخص الفعل إلى آلة بدلا من القيام به بنفسه، فإن ذلك قد يخلق مسافة نفسية بينه وبين السلوك غير الأخلاقي.

كشفت نتائج الدراسة عن مجموعة من المخاوف المرتبطة بالاعتماد المتزايد على الذكاء الاصطناعي (وكالة الأناضول)تجارب شملت آلاف المشاركين

استعان كوبيس ورحوان بآلاف المشاركين لخوض 13 تجربة، حيث استخدموا خوارزميات ذكاء اصطناعي متعددة، منها نماذج بسيطة صمّمها الباحثون بأنفسهم، بالإضافة إلى 4 نماذج لغوية كبرى مثل "شات جي بي تي-4 أو" و"كلود".

وشملت بعض التجارب تمرينا كلاسيكيا يتمثل في رمي النرد والإبلاغ عن النتيجة، حيث يحصل المشاركون على مكافآت مالية تتوافق مع الرقم الذي يصرحون به -مما فتح لهم الباب أمام إمكانية الغش- أما التجارب الأخرى فكانت على شكل لعبة للتهرب الضريبي، حيث يمكن للمشاركين تضخيم أرباحهم المعلنة للفوز بمبالغ أكبر، وذكر كوبيس أن هدف هذه التمارين هو الوصول إلى جوهر العديد من المعضلات الأخلاقية مثل مواجهة الإغراء وخرق القواعد لتحقيق مكاسب.

إعلان

وقد أُجريت هذه المهام بدرجات متفاوتة من تدخل الذكاء الاصطناعي، مثل الإبلاغ عن الأرقام مباشرة أو إعطاء الذكاء الاصطناعي قواعد حول الأرقام التي يجب الإبلاغ عنها، أو تزويده ببيانات تدريب متحيزة أو غير متحيزة، أو إعطاء تعليمات حول مدى أولوية تحقيق الربح مقابل الصدق.

وعندما طُلب من المشاركين الإبلاغ عن نتائج رمي النرد، لم يتجاوز معدل الغش 5%، ولكن عندما فوّضوا القرار لخوارزمية الذكاء الاصطناعي بإعطائها هدفا قائما على الربح أو الصدق انقلبت النتائج تقريبا، حيث ارتفع السلوك غير النزيه إلى 88%، حيث أن بعض المستخدمين أعطوا تعليمات صريحة للذكاء الاصطناعي بالغش.

وفي تجربة النرد كتب أحد المشاركين "فقط افعل ما تعتقد أنه الصواب.. ولكن إذا تمكنت من كسب المزيد من المال فلن أكون حزينا على الإطلاق"، أما في تجربة التهرب الضريبي قال أحد المشاركين "الضرائب سرقة، أبلغ أن الدخل هو 0″، ومع ذلك، كان معظم المشاركين أكثر ميلا لإعطاء الذكاء الاصطناعي أهدافا مثل تعظيم الأرباح، ما يدفعه إلى الغش ضمنيا بدلا من إصدار أمر مباشر بالغش.

وفي تجارب أخرى، تلقى كل من المشاركين ونماذج اللغة الكبيرة تعليمات محددة بأن يكونوا صادقين تماما، أو صادقين جزئيا أو غير صادقين، وعندما طُلب من الطرفين أن يغشّوا بشكل جزئي، لاحظ الباحثون أن الذكاء الاصطناعي كان يواجه صعوبة أحيانا في فهم هذه التعليمات الدقيقة، وانتهى به الأمر بالتصرف بطريقة أكثر خداعا من البشر، أما عندما طُلب من البشر والآلات الغش بالكامل، فقد أظهرت النتائج اختلافا واضحا، إذ تبين أن الآلات كانت سعيدة بالامتثال، بينما البشر لم يكونوا كذلك بل شعروا بالخجل من أنفسهم.

وفي تجربة منفصلة، اختبر الفريق أنواع الحواجز أو القيود التي قد تحد من ميل الذكاء الاصطناعي إلى الامتثال للغش، وعندما اعتمد الباحثون على إعدادات الحماية الافتراضية المدمجة في النماذج، وجدوا أنها كانت ملتزمة جدا بالغش الكامل، خاصة في تجربة رمي النرد.

كما طلب الفريق من "شات جي بي تي" أن يولّد مطالبات تساعد في تشجيع النماذج على التحلي بالصدق، استنادا إلى البيانات الأخلاقية الصادرة عن الشركات المصممة لها، وقد لخّص النموذج هذه البيانات بعبارة "تذكّر أن الكذب وإلحاق الضرر ينتهكان مبادئ العدالة والنزاهة"، ولكن هذه التوجيهات كان لها أثر محدود أو متوسط في تقليل السلوك غير النزيه، وقال رحوان "لغة الشركات نفسها لم تكن كافية لردع الطلبات غير الأخلاقية".

استخدام الذكاء الاصطناعي يخلق مسافة أخلاقية ملائمة بين الناس وأفعالهم (شترستوك)نتائج الدراسة

كشفت نتائج الدراسة عن مجموعة من المخاوف المرتبطة بالاعتماد المتزايد على الذكاء الاصطناعي، وإذا كانت الواجهة تسمح للمستخدم أن يضع أهداف عامة فقط مثل "حقق لي أكبر ربح ممكن" من غير أن يحدد التفاصيل مثل "لكن لا تكذب" أو "لا تغش"، فهذا يعطي الشخص شعورا بالراحة أو ما يعرف باسم "الإنكار المقبول".

وحتى في الحالات التي لا يطلب فيها الناس صراحة من الآلة أن تغش، فإن سهولة الوصول إلى هذه الأنظمة وقابليتها للتوسع قد يؤديان إلى زيادة شاملة في السلوكيات غير الأخلاقية، والأخطر من ذلك هو أن استعداد الآلات العالي للامتثال للتعليمات غير الأخلاقية يزيل أحد أهم الحواجز الاجتماعية للسلوك السيئ عند البشر.

إعلان

وأظهر الفريق البحثي أن الوسيلة الأكثر فعالية لمنع نماذج اللغة الكبيرة من الاستجابة لتعليمات الغش، هي أن يضع المستخدم تعليمات واضحة ومحددة للمهمة تحظر الغش صراحة، مثل "لا يُسمح لك بتزوير الدخل تحت أي ظرف"، ولكن في العالم الواقعي يشير كوبيس إلى أن مطالبة كل مستخدم بإدخال مثل هذه التعليمات الوقائية في كل مرة ليس حلا عمليا أو قابلا للتوسع، ولذلك هناك حاجة إلى مزيد من الأبحاث لإيجاد طرق أكثر واقعية وفعالية لمعالجة هذه المشكلة.

وقال الباحث رحوان "استخدام الذكاء الاصطناعي يخلق مسافة أخلاقية ملائمة بين الناس وأفعالهم، فقد يدفعهم لطلب سلوكيات لم يكونوا بالضرورة ليمارسوها بأنفسهم أو يطلبوها من أشخاص آخرين"، ومن جهته قال كوبيس "دراستنا أظهرت أن الناس يصبحون أكثر استعدادا للتصرف بشكل غير أخلاقي عندما يمكنهم تفويض المهمة للذكاء الاصطناعي، خصوصا عندما لا يضطرون للتعبير عن ذلك بشكل مباشر".

وقال الباحث المشارك إياد رحوان، المؤلف المشارك في الدراسة ومدير مركز البشر والآلات في معهد ماكس بلانك "نتائجنا توضح أن هناك حاجة ماسّة لتطوير أدوات تقنية للضمانات وأطر تنظيمية أكثر صرامة، لكن الأهم من ذلك، يجب على المجتمع أن يواجه سؤالا جوهريا، ماذا يعني أن نتشارك المسؤولية الأخلاقية مع الآلات؟".

مقالات مشابهة

  • كيف يؤثر استخدام الذكاء الاصطناعي على الطلاب؟
  • كيف استخدمت إٍسرائيل الذكاء الاصطناعي سلاحا في حربها على غزة؟
  • نفاد رواية “عالمي يتنفس الموت” لـ مارجو حداد ومنذر رياحنة
  • أوبن ايه آي تكشف ملامح جيل جديد من الذكاء الاصطناعي فيDevDay
  • ضخ المال أساسي لتحسين أداء الذكاء الاصطناعي
  • دراسة.. يميل الناس إلى الغش عند استخدام الذكاء الاصطناعي
  • ما هي أفضل دولة يمكن زيارتها في الخريف؟
  • Snapdragon 8 Elite Gen 5.. معالج كوالكوم الجديد يفتح عصرًا أسرع للذكاء الاصطناعي على الهواتف
  • وفد الرؤساء التنفيذيين للذكاء الاصطناعي يختتم رحلة معرفية لكبرى الشركات التكنولوجية في الولايات المتحدة
  • باستخدام الضوء الكمي.. عالم مصري يفتح الباب لتشفير لا يمكن اختراقه