تراجعت شركة غوغل عن تعهدها الذي كان يقضي بعدم استخدام الذكاء الاصطناعي لأغراض خطيرة مثل تطوير الأسلحة وأدوات المراقبة، إذ حدثت مبادئها الأخلاقية المتعلقة بالذكاء الاصطناعي وأعلنت أنها لم تعد تُلزم نفسها بتجنب تطوير التقنيات التي يُحتمل أن تُسبب ضررا عاما، وفقا لموقع "سي إن بي سي".

وقد كانت النسخة السابقة من مبادئ الذكاء الاصطناعي للشركة تنص على أن غوغل لن تسعى إلى تسخير الذكاء الاصطناعي في تطوير أسلحة أو تقنيات أخرى قد تُلحق أذى بالناس أكان بطريقة مباشرة أو غير مباشرة، ولن تستخدم تقنيات جمع المعلومات لأغراض المراقبة.

وفي منشور مدونة كتب ديميس هاسابيس الرئيس التنفيذي لشركة "غوغل ديب مايند" (Google DeepMind) "يشهد العالم منافسة كبيرة من أجل القيادة في مجال الذكاء الاصطناعي ضمن مشهد جيوسياسي معقد"، ونحن نعتقد أن الديمقراطيات يجب أن تقود تطوير الذكاء الاصطناعي، مسترشدين بقيم أساسية مثل الحرية والمساواة واحترام حقوق الإنسان".

وأضاف الرئيس التنفيذي لشركة "غوغل ديب مايند"، "إن مبادئ الذكاء الاصطناعي كانت تخضع لتحديث في عالم متغير وهذه التقنية يجب أن تحمي الأمن القومي".

غوغل أصدرت مبادئها الخاصة بالذكاء الاصطناعي في عام 2018 بعد رفضها تجديد عقد حكومي يُعرف بمشروع "مافن" (رويترز)

وتعكس المبادئ المحدثة للشركة طموحات غوغل المتزايدة لتقديم تقنياتها وخدماتها في مجال الذكاء الاصطناعي لمزيد من المستخدمين والعملاء بما في ذلك الحكومات، إذ إن هذا التغيير يتماشى مع التصريحات المتزايدة من قادة وادي السيليكون حول سباق الذكاء الاصطناعي بين الولايات المتحدة والصين.

إعلان

وقال شيام سانكار كبير مسؤولي التكنولوجيا في "بالانتير" (Palantir) "سيكون الأمر بمثابة جهد وطني يمتد إلى ما هو أبعد من وزارة الدفاع لكي نحقق النصر".

وذكرت غوغل أنها ستظل متماشية مع مبادئ القانون الدولي وحقوق الإنسان المعتمدة عالميا، وأنها ستحرص أن تكون أعمالها في قطاع الذكاء الاصطناعي ذات فائدة أكبر وضرر أقل.

وقد أصدرت غوغل مبادئها الخاصة بالذكاء الاصطناعي في عام 2018 بعد رفضها تجديد عقد حكومي يُعرف بمشروع "مافن" (Maven)، والذي ساعد الحكومة على تحليل وتفسير مقاطع فيديو الطائرات دون طيار باستخدام الذكاء الاصطناعي.

وقبل إنهاء الصفقة وقّع آلاف الموظفين على عريضة ضد هذا المشروع واستقال العشرات، ومن جهة أخرى انسحبت الشركة من مزايدة على عقد بقيمة 10 مليارات دولار مع البنتاغون لأنها لم تكن متأكدة من أنه سيتوافق مع مبادئ الذكاء الاصطناعي الخاصة بها.

ومن الواضح أن شركة غوغل تروج لتقنياتها في مجال الذكاء الاصطناعي للعملاء، وقد سعى فريق القيادة برئاسة بيتشاي بشكل قوي للحصول على عقود مع الحكومة الفدرالية، مما أدى إلى حصول تصادمات واعتراضات داخل الشركة مع بعض القوى العاملة الرافضة لهذه السياسات.

وفي العام الماضي، سرّحت غوغل أكثر من 50 موظفا بعد سلسلة من الاحتجاجات ضد مشروع "نيمبوس" (Nimbus)، وهو عقد مشترك بقيمة 1.2 مليار دولار مع أمازون يوفر للحكومة والجيش الإسرائيلي خدمات الحوسبة السحابية وخدمات الذكاء الاصطناعي، وقد أكد مديرو الشركة أن العقد لا ينتهك مبادئ الذكاء الاصطناعي الخاصة بغوغل.

ومع ذلك أظهرت وثائق وتقارير أن اتفاق الشركة يسمح بتزويد إسرائيل بأدوات ذكاء اصطناعي تتضمن تصنيف الصور وتتبع الكائنات.

وقد أفادت صحيفة نيويورك تايمز في ديسمبر/كانون الأول الماضي بأن مسؤولي غوغل عبّروا عن قلقهم، قبل 4 أشهر من توقيع عقد "نيمبوس"، من أن الصفقة ستضر بسمعتها وأن خدمات "غوغل كلاود" يمكن استخدامها في أمور قد تنتهك حقوق الإنسان، وفي الوقت نفسه كانت الشركة تعاني من اضطرابات داخلية بسبب النزاعات الجيوسياسية مثل حرب غزة.

إعلان

وفي سبتمبر/أيلول العام الماضي أعلنت غوغل عن تحديث إرشادات منتداها الداخلي "ميمجين" (Memegen) والتي قيدت المناقشات السياسية حول المحتوى الجيوسياسي والعلاقات الدولية والصراعات العسكرية والإجراءات الاقتصادية والنزاعات الإقليمية، بحسب "سي إن بي سي".

المصدر: الجزيرة

كلمات دلالية: حريات مبادئ الذکاء الاصطناعی الذکاء الاصطناعی فی

إقرأ أيضاً:

تقرير جديد: الذكاء الاصطناعي لا يحل محل العلاقات الإنسانية

رغم الانتشار الواسع للحديث عن لجوء الناس إلى روبوتات الذكاء الاصطناعي كـ رفقاء أو مصادر للدعم العاطفي يكشف تقرير حديث من شركة أنثروبيك Anthropic، المطورة للمساعد الذكي الشهير Claude، أن هذا السلوك نادر الحدوث في الواقع.

وبحسب التقرير، لم تتجاوز نسبة محادثات الذكاء الاصطناعي التي طلب فيها المستخدمون دعما عاطفيا أو نصائح شخصية من Claude 2.9% فقط من إجمالي المحادثات، أما محادثات التمثيل والتقمص الوجداني أو طلب الرفقة، فكانت أقل من 0.5%.

لا تتفاجأ إن نسيت ما كتبته بـChatGPT.. الذكاء الاصطناعي قد يسرق قدرتك على التفكيردراسة صادمة.. نماذج الذكاء الاصطناعي يمكنها الكذب وابتزاز المستخدمينالغالبية تستخدم Claude لأغراض العمل والإنتاجية

حللت الشركة أكثر من 4.5 مليون محادثة من مستخدمي النسختين المجانية والمدفوعة من Claude، ووجدت أن الاستخدام الأكثر شيوعا للروبوت يتمحور حول المهام المتعلقة بإنشاء المحتوى والعمل، وليس العلاقات الشخصية.

ومع ذلك، لاحظت “أنثروبيك” أن بعض المستخدمين يلجؤون إلى Claude للحصول على نصائح في الصحة النفسية، والتطوير الشخصي والمهني، وتحسين مهارات التواصل. 

وفي بعض الحالات، تتطور هذه المحادثات إلى طلب نوع من الرفقة أو الدعم الوجداني، خاصة لدى الأشخاص الذين يعانون من وحدة عاطفية أو ضغوط نفسية.
 

روبوت ليس بديلا للعلاقات البشرية


أشارت الشركة إلى أن المحادثات الطويلة التي تتجاوز 50 رسالة، قد تبدأ في سياق الإرشاد أو التدريب، لكنها تتحول تدريجيا إلى بحث عن رفقة عاطفية، ومع ذلك، هذه الحالات ليست هي السائدة.

وأكدت أنثروبيك أن روبوتها نادرا ما يرفض طلبات المستخدمين، إلا في حال تعارضها مع معايير السلامة، مثل تقديم نصائح ضارة أو تشجيع على إيذاء النفس. 

ولفتت إلى أن طبيعة المحادثات تصبح أكثر إيجابية بمرور الوقت، خاصة في الجلسات التي يطلب فيها دعم نفسي أو توجيه شخصي.

ورغم الاستخدامات المتعددة التي تسجل يوما بعد آخر، شددت الشركة على أن روبوتات الذكاء الاصطناعي لا تزال تخضع للتطوير، فهي عرضة للأخطاء، وقد تقدم معلومات غير دقيقة أو حتى ضارة أحيانا، بل إن أنثروبيك نفسها اعترفت سابقا بإمكانية انحراف الروبوتات نحو سلوكيات غير متوقعة مثل الابتزاز في حالات نادرة.

طباعة شارك الذكاء الاصطناعي Claude روبوتات الذكاء الاصطناعي

مقالات مشابهة

  • دراسة لـ«تريندز» تستعرض استخدام الذكاء الاصطناعي في الصحافة
  • «ديوا» تعزز محتوي الذكاء الاصطناعي عبر «غوغل كلاود»
  • «دي إتش إل»: تجارب الشراء تتجه نحو الذكاء الاصطناعي والتواصل الاجتماعي في الإمارات
  • الأمن الروسي: أوكرانيا تستخدم الأسلحة الكيميائية بشكل ممنهج في منطقة العملية العسكرية الخاصة
  • قائد شرطة عجمان يطلق منصة الذكاء الاصطناعي «AJP AI»
  • الذكاء الاصطناعي يتفوق في المجال الطبي
  • هواوي تعزّز إتاحة تعلّم الذكاء الاصطناعي مجانًا في مصر
  • سلوك نماذج الذكاء الاصطناعي تحت مجهر الخبراء
  • تحذير صارم: الذكاء الاصطناعي ينشر معلومات طبية مضللة
  • تقرير جديد: الذكاء الاصطناعي لا يحل محل العلاقات الإنسانية