غوغل تسحب تعهدها بعدم استخدام الذكاء الاصطناعي في الأسلحة والمراقبة
تاريخ النشر: 7th, February 2025 GMT
تراجعت شركة غوغل عن تعهدها الذي كان يقضي بعدم استخدام الذكاء الاصطناعي لأغراض خطيرة مثل تطوير الأسلحة وأدوات المراقبة، إذ حدثت مبادئها الأخلاقية المتعلقة بالذكاء الاصطناعي وأعلنت أنها لم تعد تُلزم نفسها بتجنب تطوير التقنيات التي يُحتمل أن تُسبب ضررا عاما، وفقا لموقع "سي إن بي سي".
وقد كانت النسخة السابقة من مبادئ الذكاء الاصطناعي للشركة تنص على أن غوغل لن تسعى إلى تسخير الذكاء الاصطناعي في تطوير أسلحة أو تقنيات أخرى قد تُلحق أذى بالناس أكان بطريقة مباشرة أو غير مباشرة، ولن تستخدم تقنيات جمع المعلومات لأغراض المراقبة.
وفي منشور مدونة كتب ديميس هاسابيس الرئيس التنفيذي لشركة "غوغل ديب مايند" (Google DeepMind) "يشهد العالم منافسة كبيرة من أجل القيادة في مجال الذكاء الاصطناعي ضمن مشهد جيوسياسي معقد"، ونحن نعتقد أن الديمقراطيات يجب أن تقود تطوير الذكاء الاصطناعي، مسترشدين بقيم أساسية مثل الحرية والمساواة واحترام حقوق الإنسان".
وأضاف الرئيس التنفيذي لشركة "غوغل ديب مايند"، "إن مبادئ الذكاء الاصطناعي كانت تخضع لتحديث في عالم متغير وهذه التقنية يجب أن تحمي الأمن القومي".
وتعكس المبادئ المحدثة للشركة طموحات غوغل المتزايدة لتقديم تقنياتها وخدماتها في مجال الذكاء الاصطناعي لمزيد من المستخدمين والعملاء بما في ذلك الحكومات، إذ إن هذا التغيير يتماشى مع التصريحات المتزايدة من قادة وادي السيليكون حول سباق الذكاء الاصطناعي بين الولايات المتحدة والصين.
إعلانوقال شيام سانكار كبير مسؤولي التكنولوجيا في "بالانتير" (Palantir) "سيكون الأمر بمثابة جهد وطني يمتد إلى ما هو أبعد من وزارة الدفاع لكي نحقق النصر".
وذكرت غوغل أنها ستظل متماشية مع مبادئ القانون الدولي وحقوق الإنسان المعتمدة عالميا، وأنها ستحرص أن تكون أعمالها في قطاع الذكاء الاصطناعي ذات فائدة أكبر وضرر أقل.
وقد أصدرت غوغل مبادئها الخاصة بالذكاء الاصطناعي في عام 2018 بعد رفضها تجديد عقد حكومي يُعرف بمشروع "مافن" (Maven)، والذي ساعد الحكومة على تحليل وتفسير مقاطع فيديو الطائرات دون طيار باستخدام الذكاء الاصطناعي.
وقبل إنهاء الصفقة وقّع آلاف الموظفين على عريضة ضد هذا المشروع واستقال العشرات، ومن جهة أخرى انسحبت الشركة من مزايدة على عقد بقيمة 10 مليارات دولار مع البنتاغون لأنها لم تكن متأكدة من أنه سيتوافق مع مبادئ الذكاء الاصطناعي الخاصة بها.
ومن الواضح أن شركة غوغل تروج لتقنياتها في مجال الذكاء الاصطناعي للعملاء، وقد سعى فريق القيادة برئاسة بيتشاي بشكل قوي للحصول على عقود مع الحكومة الفدرالية، مما أدى إلى حصول تصادمات واعتراضات داخل الشركة مع بعض القوى العاملة الرافضة لهذه السياسات.
وفي العام الماضي، سرّحت غوغل أكثر من 50 موظفا بعد سلسلة من الاحتجاجات ضد مشروع "نيمبوس" (Nimbus)، وهو عقد مشترك بقيمة 1.2 مليار دولار مع أمازون يوفر للحكومة والجيش الإسرائيلي خدمات الحوسبة السحابية وخدمات الذكاء الاصطناعي، وقد أكد مديرو الشركة أن العقد لا ينتهك مبادئ الذكاء الاصطناعي الخاصة بغوغل.
ومع ذلك أظهرت وثائق وتقارير أن اتفاق الشركة يسمح بتزويد إسرائيل بأدوات ذكاء اصطناعي تتضمن تصنيف الصور وتتبع الكائنات.
وقد أفادت صحيفة نيويورك تايمز في ديسمبر/كانون الأول الماضي بأن مسؤولي غوغل عبّروا عن قلقهم، قبل 4 أشهر من توقيع عقد "نيمبوس"، من أن الصفقة ستضر بسمعتها وأن خدمات "غوغل كلاود" يمكن استخدامها في أمور قد تنتهك حقوق الإنسان، وفي الوقت نفسه كانت الشركة تعاني من اضطرابات داخلية بسبب النزاعات الجيوسياسية مثل حرب غزة.
إعلانوفي سبتمبر/أيلول العام الماضي أعلنت غوغل عن تحديث إرشادات منتداها الداخلي "ميمجين" (Memegen) والتي قيدت المناقشات السياسية حول المحتوى الجيوسياسي والعلاقات الدولية والصراعات العسكرية والإجراءات الاقتصادية والنزاعات الإقليمية، بحسب "سي إن بي سي".
المصدر: الجزيرة
كلمات دلالية: حريات مبادئ الذکاء الاصطناعی الذکاء الاصطناعی فی
إقرأ أيضاً:
تقرير جديد: الذكاء الاصطناعي لا يحل محل العلاقات الإنسانية
رغم الانتشار الواسع للحديث عن لجوء الناس إلى روبوتات الذكاء الاصطناعي كـ رفقاء أو مصادر للدعم العاطفي يكشف تقرير حديث من شركة أنثروبيك Anthropic، المطورة للمساعد الذكي الشهير Claude، أن هذا السلوك نادر الحدوث في الواقع.
وبحسب التقرير، لم تتجاوز نسبة محادثات الذكاء الاصطناعي التي طلب فيها المستخدمون دعما عاطفيا أو نصائح شخصية من Claude 2.9% فقط من إجمالي المحادثات، أما محادثات التمثيل والتقمص الوجداني أو طلب الرفقة، فكانت أقل من 0.5%.
حللت الشركة أكثر من 4.5 مليون محادثة من مستخدمي النسختين المجانية والمدفوعة من Claude، ووجدت أن الاستخدام الأكثر شيوعا للروبوت يتمحور حول المهام المتعلقة بإنشاء المحتوى والعمل، وليس العلاقات الشخصية.
ومع ذلك، لاحظت “أنثروبيك” أن بعض المستخدمين يلجؤون إلى Claude للحصول على نصائح في الصحة النفسية، والتطوير الشخصي والمهني، وتحسين مهارات التواصل.
وفي بعض الحالات، تتطور هذه المحادثات إلى طلب نوع من الرفقة أو الدعم الوجداني، خاصة لدى الأشخاص الذين يعانون من وحدة عاطفية أو ضغوط نفسية.
أشارت الشركة إلى أن المحادثات الطويلة التي تتجاوز 50 رسالة، قد تبدأ في سياق الإرشاد أو التدريب، لكنها تتحول تدريجيا إلى بحث عن رفقة عاطفية، ومع ذلك، هذه الحالات ليست هي السائدة.
وأكدت أنثروبيك أن روبوتها نادرا ما يرفض طلبات المستخدمين، إلا في حال تعارضها مع معايير السلامة، مثل تقديم نصائح ضارة أو تشجيع على إيذاء النفس.
ولفتت إلى أن طبيعة المحادثات تصبح أكثر إيجابية بمرور الوقت، خاصة في الجلسات التي يطلب فيها دعم نفسي أو توجيه شخصي.
ورغم الاستخدامات المتعددة التي تسجل يوما بعد آخر، شددت الشركة على أن روبوتات الذكاء الاصطناعي لا تزال تخضع للتطوير، فهي عرضة للأخطاء، وقد تقدم معلومات غير دقيقة أو حتى ضارة أحيانا، بل إن أنثروبيك نفسها اعترفت سابقا بإمكانية انحراف الروبوتات نحو سلوكيات غير متوقعة مثل الابتزاز في حالات نادرة.