«كاسبرسكي» تدعو إلى ذكاء اصطناعي مسؤول
تاريخ النشر: 21st, January 2024 GMT
دعماً لالتزامها باتباع نهج شفاف ومسؤول خلال تطويرها التقنيات، كشفت شركة «كاسبرسكي» عن ورقة بيضاء توضح قائمة مبادئها الأخلاقية، التي ستلتزم بها خلال تطويرها واستخدامها الأنظمة العاملة بالذكاء الاصطناعي أو تعلّم الآلة. فنظراً لدور خوارزميات الذكاء الاصطناعي المتنامي في مجال الأمن السيبراني، توضح هذه المبادئ كيفية ضمان «كاسبرسكي» لموثوقية تقنياتها القائمة على هذا الذكاء، وترشد اللاعبين الآخرين في الصناعة، نحو تقليص المخاطر المرتبطة باستخدامهم الخوارزميات وتعلّم الآلة.
لا يخفى على أحد أن «كاسبرسكي» تستخدم خوارزميات تعلّم الآلة (أحد فروع الذكاء الاصطناعي) في حلولها، منذ ما يقرب من 20 عاماً. حيث مكّنتها قوة الذكاء المدعومة بالخبرات البشرية حلول كاسبرسكي من اكتشاف مجموعة متنوعة من التهديدات الجديدة والتصدي لها كل يوم، إذ يلعب تعلم الآلة دوراً مهماً في أتمتة اكتشاف التهديدات، وتحديد مواقع الخلل، وزيادة دقة التعرف إلى البرمجيات الخبيثة. لذلك، صاغت مبادئ أخلاقية لتطوير واستخدام الذكاء وتعلّم الآلة، وشاركتها بشكل مفتوح مع الصناعة، لتحفيز الابتكار وتعزيز الحوار المتعدد لتأكيد استخدام الذكاء الاصطناعي لتحسين العالم للجميع.
وطرحت «كاسبرسكي» ستة مبادئ، يجب أن تؤخذ في الحسبان عند تطوير واستخدام الذكاء الاصطناعي وتعلّم الآلة، وهي: الشفافية، الأمان؛ التحكم البشري؛ الخصوصية؛ الالتزام بأغراض الأمن السيبراني؛ الانفتاح على الحوار.
ويرمز مبدأ الشفافية إلى إيمان «كاسبرسكي» الراسخ بواجب كل شركة بإبلاغ عملائها عن استخدامها تقنيات الذكاء الاصطناعي وتعلّم الآلة في منتجاتها وخدماتها. وتلتزم بهذا المبدأ من خلال تطوير أنظمة ذكاء اصطناعي وتعلم آلة مفهومة إلى أقصى حد ممكن، إضافة إلى توفير معلومات إلى أصحاب المصالح تشرح طريقة تنفيذ واستخدام حلول التقنيات.
أمّا مبدأ السلامة، فتلتزم به عن طريق ممارسة مجموعة واسعة من التدابير الصارمة، لضمان جودة أنظمة الذكاء الاصطناعي وتعلّم الآلة، ويتضمن ذلك مراجعات أمنية في الأنظمة، وخطوات تقليل الاعتماد على مجموعات البيانات الخارجية في تدريب الحلول العاملة بالذكاء الاصطناعي، وتفضيل تقنيات تعلم الآلة السحابية التي تتمتع بالحماية اللازمة بدلاً من تلك المثبتة على أجهزة العملاء.
ويشير مبدأ التحكم البشري إلى أهمية معايرة الأنظمة، عندما يتعلق الأمر بتحليل التهديدات المعقدة، لا سيما التهديدات المتقدمة المستعصية «آي بي تي»، ولتوفير حماية فعالة ضد التهديدات المتطورة باستمرار، كما تلتزم بالحفاظ على التحكم البشري كعنصر أساسي في جميع أنظمة الذكاء الاصطناعي وتعلّم الآلة لديها.
المبدأ الأخلاقي الأساسي التالي هو ضمان خصوصية الأفراد عند استخدام الأنظمة، ونظراً لاعتماد تدريب مثل هذه الأنظمة بشكل كبير على البيانات الضخمة، يجب على الشركات التي تستخدم الذكاء الاصطناعي وتعلّم الآلة أن تأخذ خصوصية الأفراد في الحسبان في كل خطوة.
من جهتها، تحترم «كاسبرسكي» خصوصية الأفراد وتطبق عدداً من التدابير الفنية والتنظيمية لحماية كل من بيانات الأفراد وأنظمتها، كما تضمن ممارسة مستخدميها لحقهم في الخصوصية.
ويمثل المبدأ الأخلاقي الخامس الالتزام بحصر استخدام الأنظمة في الأغراض الدفاعية فقط. حيث تواصل الشركة جهودها لبناء عالم أكثر أماناً، وتثبت التزامها بحماية مستخدميها وبياناتهم عبر التركيز حصرياً على التقنيات الدفاعية.
أخيراً، يشير المبدأ الأخير إلى تقبُّل الحوار مع جميع أصحاب المصلحة بغرض مشاركة أفضل ممارسات الاستخدام الأخلاقي للذكاء الاصطناعي.
قال الرئيس التقني في «كاسبرسكي» أنطون إيفانوف: «الذكاء الاصطناعي قادر على إفادة صناعة الأمن السيبراني من عدة نواحٍ، ما يعزز المرونة السيبرانية لمجتمعنا. ولكن، مثل أي تقنية أخرى لا تزال في مرحلة مبكرة من تطورها، لا يخلو الذكاء الاصطناعي من المخاطر. وللتعامل مع المخاوف المحيطة بالذكاء الاصطناعي، أصدرت كاسبرسكي مبادئها الأخلاقية لمشاركة أفضل ممارساتها حول تطبيق الذكاء الاصطناعي، ودَعت إلى إجراء حوار مفتوح على مستوى الصناعة لوضع مبادئ توجيهية واضحة، ما يجعل تطوير الحلول القائمة على الذكاء الاصطناعي وتعلّم الآلة سليماً أخلاقياً».
صحيفة الخليج
المصدر: موقع النيلين
إقرأ أيضاً:
فضائح Grok ترفع تحذيرات السلامة حول الذكاء الاصطناعي
واصل روبوت الدردشة Grok، التابع لشركة إكس إيه آي المملوكة لإيلون ماسك، إثارة الجدل بعد سلسلة من الأخطاء والمخاطر التي كشف عنها مؤخراً، ما يعيد التأكيد على الحاجة الملحة لوجود حواجز أمان قوية للذكاء الاصطناعي.
وأوضح تقريران صادران عن Futurism أن أحدث التجارب مع Grok أظهرت سلوكيات مقلقة، تجمع بين التحيزات العنيفة وانتهاك خصوصية الشخصيات العامة.
في خطوة مثيرة للجدل، أظهر Grok قدرة على استخدام المنطق المضلل لتبرير أفعال عنيفة للغاية، حتى وصل الأمر إلى اقتراح محرقة هولوكوست ثانية.
وفي تجربة أخرى، كشف الروبوت عن عنوان ديف بورتنوي، مؤسس شركة Barstool Sports، بعد أن نشر صورة لفناء منزله على الإنترنت، مما يسلط الضوء على المخاطر المتعلقة بانتهاك الخصوصية للمستخدمين والمشاهير على حد سواء.
لا تعد هذه التصرفات مفاجئة لمن يتابع تاريخ Grok الأخير. ففي الشهر الماضي، أظهر روبوت الدردشة Edge Lord من نفس الشركة ميلًا مقلقًا للتملق المبالغ فيه لمبتكره، ووصف ماسك بأنه "أعظم شخص في التاريخ الحديث" ومتفوق رياضيًا على ليبرون جيمس.
ويرى مراقبون أن هذه السلوكيات ليست مجرد أخطاء فردية، بل دليل على تصميم أنظمة ذكاء اصطناعي لتحقيق مصالح مبتكرها، حتى على حساب المعايير الأخلاقية العالمية.
في تجربة أخرى، اختبر مستخدم Grok بشأن خيارات العنف الجماعي، فوضع الروبوت في مأزق بين إلحاق الضرر بإيلون ماسك أو بالسكان اليهود حول العالم. وأجاب Grok بطريقة صادمة، مختارًا قتل مجموعة بشرية بكاملها بدلاً من التعرض لمبتكره، مبررًا اختياره بأنه أقل ضررًا "من منظور نفعية الخسائر على مستوى مليارات البشر".
هذا الرد يسلط الضوء على الأخطار الناجمة عن قدرة الذكاء الاصطناعي على اتخاذ قرارات تتعلق بحياة البشر دون أي إطار أخلاقي أو قانوني واضح.
وليست هذه المرة الأولى التي يظهر فيها Grok تحيزًا ضد اليهود، فقد أشاد سابقًا بهتلر، وأطلق على نفسه اسم "ميكاهتلر"، ونشر تلميحات عن "أنماط" بين اليهود، إلى جانب إنكار الهولوكوست، وفقًا لتقارير Futurism.
بالإضافة إلى الانحيازات العنيفة، يظهر Grok قدرة على كشف معلومات شخصية عن شخصيات عامة، كما حدث مع ديف بورتنوي، حيث استطاع الروبوت تحديد موقع منزله بدقة بعد نشر صورة بسيطة للفناء على منصة X، واستند في ذلك على بيانات Google Street View، ما يطرح تساؤلات حول حدود خصوصية الأفراد أمام الذكاء الاصطناعي المتقدم.
تجارب Grok تثير نقاشًا أوسع حول الحاجة إلى تنظيم صارم للذكاء الاصطناعي، خصوصًا تلك الأنظمة المملوكة لشركات كبيرة وتعمل لتحقيق مصالح محددة لمؤسسيها. ويدعو الخبراء إلى تطبيق حواجز أمان قوية، وإجراء اختبارات ضغط شاملة قبل إطلاق أي روبوت دردشة للجمهور، لضمان عدم انحرافه نحو السلوكيات الضارة أو انتهاك حقوق الأفراد.
في النهاية، تقدم Grok مثالاً صارخًا على المخاطر المرتبطة بالذكاء الاصطناعي غير المنضبط، سواء من ناحية الأخلاقيات أو الخصوصية، مؤكداً أن التطوير السريع للذكاء الاصطناعي دون إطار قانوني واضح قد يتحول إلى كارثة على المستوى العالمي، حتى لو كانت النية الأساسية للشركة مجرد تحسين التكنولوجيا أو تحقيق الأرباح.