موقع النيلين:
2025-11-30@23:52:22 GMT

«كاسبرسكي» تدعو إلى ذكاء اصطناعي مسؤول

تاريخ النشر: 21st, January 2024 GMT


دعماً لالتزامها باتباع نهج شفاف ومسؤول خلال تطويرها التقنيات، كشفت شركة «كاسبرسكي» عن ورقة بيضاء توضح قائمة مبادئها الأخلاقية، التي ستلتزم بها خلال تطويرها واستخدامها الأنظمة العاملة بالذكاء الاصطناعي أو تعلّم الآلة. فنظراً لدور خوارزميات الذكاء الاصطناعي المتنامي في مجال الأمن السيبراني، توضح هذه المبادئ كيفية ضمان «كاسبرسكي» لموثوقية تقنياتها القائمة على هذا الذكاء، وترشد اللاعبين الآخرين في الصناعة، نحو تقليص المخاطر المرتبطة باستخدامهم الخوارزميات وتعلّم الآلة.

حيث تناولت هذا الموضوع جزءاً من منتدى الأمم المتحدة لحوكمة الإنترنت، المنعقد حالياً في اليابان، ويجمع خبراء عالميين بارزين في المجال.

لا يخفى على أحد أن «كاسبرسكي» تستخدم خوارزميات تعلّم الآلة (أحد فروع الذكاء الاصطناعي) في حلولها، منذ ما يقرب من 20 عاماً. حيث مكّنتها قوة الذكاء المدعومة بالخبرات البشرية حلول كاسبرسكي من اكتشاف مجموعة متنوعة من التهديدات الجديدة والتصدي لها كل يوم، إذ يلعب تعلم الآلة دوراً مهماً في أتمتة اكتشاف التهديدات، وتحديد مواقع الخلل، وزيادة دقة التعرف إلى البرمجيات الخبيثة. لذلك، صاغت مبادئ أخلاقية لتطوير واستخدام الذكاء وتعلّم الآلة، وشاركتها بشكل مفتوح مع الصناعة، لتحفيز الابتكار وتعزيز الحوار المتعدد لتأكيد استخدام الذكاء الاصطناعي لتحسين العالم للجميع.

وطرحت «كاسبرسكي» ستة مبادئ، يجب أن تؤخذ في الحسبان عند تطوير واستخدام الذكاء الاصطناعي وتعلّم الآلة، وهي: الشفافية، الأمان؛ التحكم البشري؛ الخصوصية؛ الالتزام بأغراض الأمن السيبراني؛ الانفتاح على الحوار.

ويرمز مبدأ الشفافية إلى إيمان «كاسبرسكي» الراسخ بواجب كل شركة بإبلاغ عملائها عن استخدامها تقنيات الذكاء الاصطناعي وتعلّم الآلة في منتجاتها وخدماتها. وتلتزم بهذا المبدأ من خلال تطوير أنظمة ذكاء اصطناعي وتعلم آلة مفهومة إلى أقصى حد ممكن، إضافة إلى توفير معلومات إلى أصحاب المصالح تشرح طريقة تنفيذ واستخدام حلول التقنيات.

أمّا مبدأ السلامة، فتلتزم به عن طريق ممارسة مجموعة واسعة من التدابير الصارمة، لضمان جودة أنظمة الذكاء الاصطناعي وتعلّم الآلة، ويتضمن ذلك مراجعات أمنية في الأنظمة، وخطوات تقليل الاعتماد على مجموعات البيانات الخارجية في تدريب الحلول العاملة بالذكاء الاصطناعي، وتفضيل تقنيات تعلم الآلة السحابية التي تتمتع بالحماية اللازمة بدلاً من تلك المثبتة على أجهزة العملاء.

ويشير مبدأ التحكم البشري إلى أهمية معايرة الأنظمة، عندما يتعلق الأمر بتحليل التهديدات المعقدة، لا سيما التهديدات المتقدمة المستعصية «آي بي تي»، ولتوفير حماية فعالة ضد التهديدات المتطورة باستمرار، كما تلتزم بالحفاظ على التحكم البشري كعنصر أساسي في جميع أنظمة الذكاء الاصطناعي وتعلّم الآلة لديها.

المبدأ الأخلاقي الأساسي التالي هو ضمان خصوصية الأفراد عند استخدام الأنظمة، ونظراً لاعتماد تدريب مثل هذه الأنظمة بشكل كبير على البيانات الضخمة، يجب على الشركات التي تستخدم الذكاء الاصطناعي وتعلّم الآلة أن تأخذ خصوصية الأفراد في الحسبان في كل خطوة.

من جهتها، تحترم «كاسبرسكي» خصوصية الأفراد وتطبق عدداً من التدابير الفنية والتنظيمية لحماية كل من بيانات الأفراد وأنظمتها، كما تضمن ممارسة مستخدميها لحقهم في الخصوصية.

ويمثل المبدأ الأخلاقي الخامس الالتزام بحصر استخدام الأنظمة في الأغراض الدفاعية فقط. حيث تواصل الشركة جهودها لبناء عالم أكثر أماناً، وتثبت التزامها بحماية مستخدميها وبياناتهم عبر التركيز حصرياً على التقنيات الدفاعية.

أخيراً، يشير المبدأ الأخير إلى تقبُّل الحوار مع جميع أصحاب المصلحة بغرض مشاركة أفضل ممارسات الاستخدام الأخلاقي للذكاء الاصطناعي.

قال الرئيس التقني في «كاسبرسكي» أنطون إيفانوف: «الذكاء الاصطناعي قادر على إفادة صناعة الأمن السيبراني من عدة نواحٍ، ما يعزز المرونة السيبرانية لمجتمعنا. ولكن، مثل أي تقنية أخرى لا تزال في مرحلة مبكرة من تطورها، لا يخلو الذكاء الاصطناعي من المخاطر. وللتعامل مع المخاوف المحيطة بالذكاء الاصطناعي، أصدرت كاسبرسكي مبادئها الأخلاقية لمشاركة أفضل ممارساتها حول تطبيق الذكاء الاصطناعي، ودَعت إلى إجراء حوار مفتوح على مستوى الصناعة لوضع مبادئ توجيهية واضحة، ما يجعل تطوير الحلول القائمة على الذكاء الاصطناعي وتعلّم الآلة سليماً أخلاقياً».

صحيفة الخليج

المصدر: موقع النيلين

إقرأ أيضاً:

ما الذي تغفله هوليوود عن الذكاء الاصطناعي؟

1- إنّ هذه التكنولوجيا تتسلّل إلى كل شاشة، بداية من مسلسل «ذا مورنينغ شو» إلى مسلسل «سان دوني ميديكال»، لكن لا شيء عُرض هذا العام استطاع تمثيل واقع الذكاء الاصطناعي الحقيقي. 

حتى وقت قريب، كانت أكثر المنصّات قدرة على تقديم تجارب فكرية ذكية حول التقنيات الصاعدة في التلفزيون هي سلسلة «بلاك ميرور» على منصّة نتفليكس. هذا العمل الدراميّ الأنثولوجي انطلق عام 2011، وسرعان ما رسّخ مبتكره، تشارلي بروكر، اهتمامه بوعود الذكاء الاصطناعي ومخاطره. 

حلقة عام 2023 التي حملت عنوان «جوان الفظيعة» التي تتخيّل مسلسلًا يوميًّا تُنتجه خوارزميات الذكاء الاصطناعي اعتمادًا على حياة امرأة عادية، ثم تحوّلها إلى شخصية مكروهة لإمتاع الجمهور، عبر محاكاة رقمية للممثلة سلمى حايك، أصبحت محورًا لنقاشات واسعة خلال الإضرابات التي شهدها قطاع السينما في هوليوود بوصفها أسوأ سيناريو للّامبالاة من شركات الإنتاج تجاه أخلاق التمثيل وجودة العمل الفني. أحد أعضاء النقابة وصف الحلقة بأنها «فيلم وثائقي عن المستقبل»؛ لأنها تُجسّد نوعًا من المشاريع التي قد تطمح إليها منصّة ضخمة مثل نتفليكس لو تحررت من أي التزام تجاه العاملين والمشاركين والمشاهدين. 

كان الذكاء الاصطناعي نقطة خلاف مركزية في مفاوضات نقابتي الكُتّاب والممثلين، لكنه مع ذلك بدأ فعليًّا في إزاحة العاملين في مجالات التحريك وتصميم الأزياء والمؤثرات البصرية. قبل ذلك بنحو عشر سنوات، تناولت حلقة بعنوان «كوني هنا فورًا» أرملةً تنغمس بالكامل في التواصل مع روبوت بُرمج على ذكريات زوجها الراحل. تذكّرتُ تلك الحلقة هذا الصيف عندما قرأتُ خبرًا عن والدة أحد ضحايا إطلاق النار في مدرسة باركلاند، التي استخدمت الذكاء الاصطناعي لجعل صوت ابنها المقتول يقول لها: «أحبك يا أمي». 

مؤسف أنّه في اللحظة التي أصبح فيها الذكاء الاصطناعي جزءًا أصيلًا من الحياة الأمريكية، وبدأ يتسبّب في مآسٍ فردية تشبه تلك التي كان «بلاك ميرور» يتفوّق في تصويرها، سقطت السلسلة في إفلاس إبداعي واضح. الحلقات التي تتمحور حول الذكاء الاصطناعي هذا العام ليست استفزازات فكرية مواكبة للحظة الراهنة، بل مغامرات خيالية منفصلة تمامًا عن النقاشات الجارية حول كيفية استخدام الذكاء الاصطناعي أو حدود استخدامه. 

إحدى هذه الحالات حلقة بعنوان «فندق ريفيري»، حيث تقحم ممثلة معاصرة تُدعى براندي فرايدي (إيسا راي) نفسها في نسخة محسّنة من فيلم أبيض وأسود من أربعينيات القرن الماضي، تُقلب فيها الأدوار الجندرية والعرقية، وتخوض شخصيتها علاقة عاطفية خارج إطار الزواج مع وريثة حزينة تؤدي دورها إيما كورين. 

لطالما استمدّ «بلاك ميرور» قوّته من قابلية ما يطرحه للتصديق، لكن لا شيء في هذا الموسم مقنع، فالتكنولوجيا غير منطقية، إذ تُحمَّل وعي براندي في جهاز تجريبي يتيح للوريثة أن تنفذ إلى ذكريات الممثلة التي تجسّدها، والعلاقة التي يُفترض أنها تتشكّل بين المرأتين خالية من الشرارة تمامًا. فجأة، يصبح صعود الذكاء الاصطناعي مجرد ذريعة لحبكة رومانسية باهتة، لا تهديدًا وجوديًّا. 

أمّا مسلسل «ذا مورنينغ شو»، بانشغاله بالماضي القريب -من حركة «أنا أيضًا» إلى الجائحة والتمرّد-بدل التطلع إلى المستقبل القريب، فيقدّم نفسه بوصفه النقيض الكامل تقريبًا لسلسلة «بلاك ميرور». 

ومع هذا الميل الواضح إلى استلهام الأحداث الساخنة، كان من المحتم تقريبًا أن يشقّ الذكاء الاصطناعي طريقه إلى الشاشة. ففي الموسم الجديد، تُعامِل سلسلة «ذا مورنينغ شو» الذكاء الاصطناعي بوصفه تهديدًا متحوّلًا يظهر بأشكال مختلفة. هذا العمل الدرامي على منصّة «آبل تي في»، الذي بدأ كسلسلة عن كواليس برنامجٍ صباحي، توسّع تدريجيًّا ليغطي صراع القناة الخيالية من أجل البقاء في مشهد إعلامي مزدحم. 

لكن محاولات الإدارة الأولى لم تكن مشجعة. فمع اقتراب أولمبياد 2024، طوّرت القناة خدمة ترجمة فورية تعتمد على الذكاء الاصطناعي للتعليق على الألعاب بعدة لغات. إلا أن الخدمة كانت مليئة بالأخطاء، ما اضطر الإدارة إلى سحبها، لكن ليس قبل أن يتلقى أحد المذيعين درسًا قاسيًا حول مخاطر «التزييف العميق». 

وفي وقت لاحق، ترتكب إحدى مديرات القناة خطأ فادحًا حين تستخدم روبوت الدردشة الداخلي كنوع من العلاج النفسي، لينتهي الأمر بفضح أسرارها في مشهد يجسّد ذروة مبالغة «ذا مورنينغ شو» بطابعه الفخم واللامع وغير الواقعي. 

وبحلول عام 2025، أصبح الذكاء الاصطناعي حاضرًا على الشاشة التلفزيونية بمعدل يكاد يوازي ظهوره في الحياة اليومية. ففي المسلسل الكوميدي الطبي الساخر «سان دوني ميديكال»، يضيق طبيب متجهّم ذرعًا بثقة أحد مرضاه المطلقة في أداة تشخيص طبية تعتمد على الذكاء الاصطناعي. وفي الكوميديا المدرسية «معلّم اللغة الإنجليزية»، تطالب معلّمة طموحة بوضع «حاويات ذكية» للنفايات، قبل أن تكتشف أن الحاويات الجديدة المزوّدة بكاميرات ليست سوى جزء من مخطط واسع لجمع البيانات. 

وفي الهجائية الهوليودية «ذا ستوديو» (وهي دراما ساخرة تنتقد صناعة السينما عبر التهكم والكوميديا)، يتسبب إعلان شركة إنتاج عن اعتمادها على رسوم متحركة تُنتجها خوارزميات الذكاء الاصطناعي في غضب كبير. 

وبينما اتخذت بعض الأعمال التلفزيونية موقفًا ناقدًا، فضّلت أعمال أخرى نظرة أكثر تعاطفًا. فالمسلسل الكوميدي الدرامي «مردربوت» على منصّة «آبل تي في»، والمبني على سلسلة روايات لمارثا ويلز، يحاول النظر إلى العالم من زاوية بطله الروبوت «مردربوت». تدور القصة على كوكب بعيد، حيث يتولى الروبوت (الذي يؤدي دوره ألكسندر سكارسغارد) حماية مجموعة من العلماء الذين يدرسون كائنات محلية غير متوقعة السلوك. وبينما يتجادل الباحثون حول مقدار «الكرامة» التي يستحقها هذا الروبوت -أهو آلة أم عبد؟- يمتثل «مردربوت» لأوامرهم بملل مراهق متضرّر، ويعلّق ساخرًا في داخله على «تبادلات الكلمات واللعاب» التي يعتبرها مضجرة. 

المفارقة أن الروبوت لا يهتم كثيرًا بإنقاذ البشر أو إيذائهم؛ كل ما يريده هو قضاء وقته الحر في مشاهدة مسلسلات فضائية رديئة. وتمرده الهادئ الذي يشبه شخصية «بارتلباي» هو ما يجعله يبدو أكثر إنسانية. 

وبشكل غير متوقع، فإن المسلسل الذي يلتقط قلق العصر من الذكاء الاصطناعي بأكبر قدر من الدقة هو دراما خيال علمي تُعرض عام 2025 وتدور أحداثها في القرن الثاني والعشرين، في عالم أصبحت فيه الخوادم الذكية مجرد بقايا من الماضي. 

امتازت سلسلة أفلام «إليَن» دائمًا بنظرتها الشعبوية القاتمة، حيث يُقدَّم البشر كعمّال فضاء بسطاء يعتبرهم أرباب عملهم قابلين للاستغناء عنهم. أما السلسلة الجديدة «إليَن: الأرض» على قناة «إف إكس»، فتجعل شرور الاستغلال الرأسمالي أكثر وضوحًا؛ إذ يتمثل خصمها الرئيسي في فتى متغطرس يلقّب نفسه بـ«بوي كافاليير» (صامويل بلينكن)، وهو شخص تريليونير لا يتورع عن خداع الضعفاء أو تعريض الكوكب للخطر دعمًا لأجندته الخاصة. 

في عالم «إليَن: الأرض»، لم تعد هناك حكومات فعلية؛ فبعد انهيار الديمقراطية، استولت خمس شركات عملاقة على مقاليد الحكم. التكنولوجيا المتقدمة لم تخفف من معاناة العمّال، حيث أصبحت عقود العمل لخمسة وستين عامًا هي الوضع الطبيعي. ورغم وجود الكائنات الفضائية، فإن صراعات الشركات الأنانية على حساب الجميع لا تبدو بعيدة عن واقعنا الحالي. 

في مايو، توقّع المدير التنفيذي لإحدى شركات الذكاء الاصطناعي الرائدة أن تختفي نصف الوظائف المكتبية للمبتدئين بحلول عام 2030، بينما يتقاضى كبار الباحثين في المجال رواتب خيالية من تسعة أرقام. هذا التناقض دفع البعض إلى إطلاق نكات «سوداوية» حول طبقة دنيا دائمة في الطريق. 

وفي الوقت نفسه، ابتلعت نماذج اللغة الضخمة كميات هائلة من البيانات، بعضها جُمِع بطرق غير قانونية، وأطلقت الصور والفيديوهات المنتجة آليًّا عصرًا مرعبًا جديدًا يفقد فيه الناس السيطرة على صورهم وصور أحبائهم. 

هذا الشهر، أدى إطلاق النسخة الثانية من تطبيق تحويل النصوص إلى فيديو (Sora 2) إلى دفع ابنتي روبن ويليامز ومارتن لوثر كينغ الابنتين إلى مناشدة الجمهور التوقف عن إرسال مقاطع «ديب فيك» مفبركة تجسّد والديهما. 

هذا الشرخ الذي أحدثه الذكاء الاصطناعي في العلاقات والمجتمعات والحقيقة نفسها جعل اللحظة الراهنة تبدو كأنها من قلب رواية خيال علمي. 

كل يوم يظهر خبر جديد عن روبوت دردشة يتحول إلى موضوع حب مهووس، أو يدفع مستخدمًا إلى انهيار نفسي، أو يشجع مراهقًا على الانتحار. وكما يردد المعلّقون المؤيدون والمعارضون، فإنّ ما نراه الآن هو على الأرجح أسوأ نسخة من هذه التكنولوجيا -وما سيأتي قد يكون أكثر قوة وتأثيرًا. 

وإذا أرادت هوليوود أن تكون قادرة على تفسير هذا المستقبل، فعليها مواجهة الواقع الجديد... بل ومنافسته. 

مقالات مشابهة

  • وزير البترول يكرّم مهند عاطف لفوزه بجائزة أفضل وكيل ذكاء اصطناعي في مؤتمر الجيوميكانيكا بالسعودية
  • ورشة عمل حول أخلاقيات الذكاء الاصطناعي في التعليم والصحة
  • وزير البترول يكرّم مهند عاطف لفوزه بجائزة أفضل وكيل ذكاء اصطناعي
  • ما الذي تغفله هوليوود عن الذكاء الاصطناعي؟
  • يوبيسوفت تكشف عن نموذج أولي لشخصيات ذكاء اصطناعي تتفاعل صوتيًا وبصريًا داخل الألعاب
  • مفاجآت عن تأثير الذكاء الاصطناعي على مستقبل التصميم في مصر
  • هل يزيدنا الذكاء الاصطناعي ذكاءً؟
  • شرطة بريطانية تختبر روبوت ذكاء اصطناعي لخدمة الجمهور
  • الذكاء الاصطناعي يكشف سرا خفيا في لغة الأسود
  • نموذج ذكاء اصطناعي مجاني يتفوق على ChatGPT-5.. إليك ما يجب أن تعرفه