البشر يتعاطفون مع الروبوتات
تاريخ النشر: 19th, October 2024 GMT
المناطق_متابعات
توصلت دراسة من جامعة إمبريال كوليدج لندن إلى أن البشر يميلون إلى الشعور بالتعاطف تجاه روبوتات الذكاء الاصطناعي ومحاولة حمايتها إذا عوملت بشكل غير عادل، أو تعرضت للتنمر.
وبحسب الدراسة المنشورة في مجلة «وايلي»؛ فإنّه في لعبة كرة افتراضية، عندما تم استبعاد روبوت الذكاء الاصطناعي من اللعب، تدخل العديد من المشاركين لضمه، مما يدل على أنهم يعاملون روبوتات الذكاء الاصطناعي ككائنات اجتماعية.
ووجدت أن المشاركين الأكبر سناً كانوا أكثر عرضة لملاحظة المعاملة غير العادلة للروبوتات ومحاولة تصحيحها.
وفي الدراسة، لعب 244 مشاركاً تتراوح أعمارهم بين 18 و62 عاماً لعبة افتراضية، حيث لاحظ البعض أن لاعباً بشرياً آخر ترك روبوتاً للذكاء الاصطناعي، واستجاب العديد من المشاركين بمحاولة التعويض عن استبعاد الروبوت من خلال تمرير الكرة إليه بشكل متكرر.
المصدر: صحيفة المناطق السعودية
كلمات دلالية: الروبوتات
إقرأ أيضاً:
الحرب والذكاء الاصطناعي
في عالمنا الراهن، لم تعد الحروب الطويلة -لا الخاطفة- تعتمد في المقام الأول على الطائرات الحربية أو المقاتلات التي يقودها مقاتل طيار، وهي الطائرات التي تشكل القوة الضاربة في أي جيش قوي، وإنما أصبحت تعتمد على المسيرات أو الطائرات من دون طيار، وهي أبرز الأسلحة المبرمجة وفقًا للذكاء الاصطناعي، والتي تُستخدم في الحروب الآن على نطاق واسع؛ لأنها سهلة التصنيع ورخيصة التكلفة إلى حد بعيد. ولكن استخدام مثل هذه الأسلحة أو الآلات القاتلة في الحروب يثير أسئلة فلسفية عديدة تتعلق بفلسفة الأخلاق، بل حتى بنظرية المعرفة ذاتها، وهذا ما أهتم بالتنويه إليه في هذا المقال.
من المعلوم أن هذه الأسلحة تكون قابلة للخطأ على أنحاء عديدة مهما كانت دقتها: فهي مبرمجة على إحداثيات وخوارزميات يمكن أن تصيب أهدافًا مدنية، ومن ثم لا تكون قادرة على التمييز بين المدنيين والعسكريين، وهي بذلك تخالف المبادئ الأخلاقية للحرب التي أقرتها القوانين الدولية. وربما يجادل بعض المفتونين بالقدرات الهائلة للتكنولوجيا بالقول بأن هناك أدلة كثيرة على القدرة اللامحدودة لأسلحة الذكاء الاصطناعي على إصابة أهدافها بدقة؛ ولكن رأي هؤلاء غافل عن أن الآلة العسكرية المبرمجة وفقًا للذكاء الاصطناعي يمكن أن تكون متحيزة؛ وبالتالي يمكن أن تتخذ قرارات نهائية خاطئة! وربما يدعو هذا القول إلى الدهشة؛ لأننا اعتدنا أن ننسب التحيز أو عدم التحيز إلى البشر وليس إلى الآلات.
ولكن هذا القول لا ينبغي أن يكون مدعاة لدهشتنا؛ ببساطة لأن هذه الآلات تنحاز وفقًا لانحياز البشر، أعني وفقًا لانحياز البيانات التي زودها بها البشر. وعلى سبيل المثال لا الحصر يمكن أن تكون هذه البيانات متحيزة ضد جماعة بعينها أو جنس أو عرق معين؛ ولذلك تختلف هذه البيانات بحسب الدول المصنعة لهذه الآلات، وبحسب الحروب التي تخوضها في مرحلة معينة ضد دولة أو دول بعينها. حقًّا إن هذه الآلات قد تستخدم أنظمة مبرمجة آليًّا بطريقة جيدة لاتخاذ قرارات ذاتية، ولكن قرارتها تظل عُرضة للخطأ، بل للأخطاء المميتة وغير القابلة للتدارُك. وربما يجادل بعض آخر بالدفاع عن إمكانية أخطاء هذه الآلات بالقول بأن هذه الأخطاء تُوجد أيضًا لدى البشر؛ فلماذا نتحفظ على نجاعة آلات وأسلحة الذكاء الاصطناعي في هذا الصدد. غير أن هذا القول غافل أيضًا عن أن نتائج القرارات الخاطئة للذكاء الاصطناعي هنا تكون كارثية بشكل يفوق كثيرًا أخطاء البشر؛ لأن هذه القرارات تكون نهائية وغير قابلة للمراجعة أو التصحيح أو التعديل.
هذا كله له صلة وثيقة بموضوع أخلاقيات الذكاء الاصطناعي Ethics of Artificial Thinking، وهو موضوع مطروح بقوة في مجال البحث الفلسفي، وهو يندرج تحت موضوع أكثر عمومية يتعلق بأخلاقيات التكنولوجيا، والتي هي بدورها تمثل فرعًا رئيسًا من فلسفة الأخلاق التطبيقية Applied Ethics . غير أن هذا الذي تناولناه هنا له صلة بجانب آخر يتعلق، لا بفلسفة الأخلاق في حد ذاتها، وإنما بنظرية المعرفة أيضًا. وهذا يتبدى لنا بوضوح حينما نضع هذا السؤال: هل الآلات الذكية، وبالتالي الأسلحة المبرمجة وفقًا للذكاء الاصطناعي، تُعتبر عاقلة بما أنها قادرة على اتخاذ قرارات معينة؟ هل يمكن أن ننسب صفة العقل إلى هذه الآلات، وهي الصفة التي طالما قصرناها على الموجودات البشرية؟ سرعان ما سيجيب المتحمسون بلا حدود للذكاء الاصطناعي بالإيجاب، وربما ذهبوا إلى القول بأن قصر العقل على البشر وحدهم من دون الآلات هو نوع من التحيز للطبيعة البشرية.
ولكن لنتريث قليلًا ونتساءل: ماذا تعني صفة «عاقل»؟ لا شك في أن العقل مرتبط بالقدرة على اتخاذ قرار، ومن هذه الناحية فإن الآلات الذكية يكون فيها شيء من سمات العقل. ومع ذلك، فإننا لا يمكن أن نصفها بأنها عاقلة تمامًا: فالذي يمتاز بالعقل هو القادر على أن يعقل مشكلته التي يواجها، وهذا يعني أنه يكون قادرًا على اتخاذ قرار بعد إجراء موازنات بين البيانات أو المعطيات المطروحة أمامه، وليس هذا حال الآلات المبرمجة لتتخذ قرارًا معينًا على أساس من بيانات مبرمجة مسبقًا، ومن دون قدرة على النظر والتقدير في ضوء السياق والمتغيرات التي تطرأ على المشهد أو الواقع الفعلي الذي تتعامل معه. والواقع أننا يمكننا القول بأن القليل من البشر هم الذين يكونون قادرين على التعقل بهذا المعنى، وأن الآلات المبرمجة وفقًا للذكاء الاصطناعي تفتقر إلى هذه الخصيصة، بل إنها تكون حتى أدنى من قدرة الحيوانات العليا على التعقل والتفكير بهذا المعنى!
ما يمكن أن نستفيد مما تقدم هو أن الموازنة بين المعطيات على أرض الواقع في ضوء الاعتبارات الأخلاقية والإنسانية هو مناط الصلة بين العقل والإرادة، وتلك مسألة تفتقر إليها آلات وأسلحة الذكاء الاصطناعي؛ ومن ثم فإن السؤال الذي يبقى هو: هل هناك إمكانية لوضع ضوابط أخلاقية لاستخدام الذكاء الاصطناعي في هذا الصدد؟ بطبيعة الحال يمكن للفلسفة أن تسهم في ذلك بقوة، ولكن الأهم أن تصبح هذه المعايير الأخلاقية بمثابة ضوابط أخلاقية مُلزمة تتبناها المؤسسات الدولية: كالأمم المتحدة على سبيل المثال، وهذا أمر يبقى مطروحًا للنظر.