خشية من استخدام الذكاء الاصطناعي في غير محله، أو لدعم بعض السياسات عن طريق اللجوء إلى معلومات غير دقية وقد تكون غير حقيقية، سعت كبرى شركات الذكاء الاصطناعي لمنع إنشاء آلاف المحتويات التي كان من الممكن أن تؤثر على مسار الانتخابات الأمريكية حسبما أفادت.

اعلان

أعلنت شركة أوبن إي آي (OpenAI)، المطورة لمنصة تشات جي بي تي (ChatGPT)، أنها رفضت أكثر من 250,000 طلب لتوليد صور لمرشحي الانتخابات الأمريكية عبر منصتها للذكاء الاصطناعي.

وأوضحت الشركة، في منشور على مدونتها يوم الجمعة، أن منصتها المتخصصة في إنشاء الصور والفيديوهات "دال-إي" (DALL-E) رفضت طلبات لإنشاء صور للرئيس السابق دونالد ترامب ونائبه المرشح جي دي فانس، وكذلك للرئيس الحالي جو بايدن والمرشحة الديمقراطية كامالا هاريس ونائبها المرشح تيم والز.

وأشارت أوبن إي آي إلى أن هذا الرفض يأتي نتيجة "إجراءات السلامة" التي وضعتها الشركة قبل يوم الانتخابات، بهدف الحد من أي محاولات للتلاعب بالمحتوى البصري المتعلق بالمرشحين. وأكدت الشركة أن مثل هذه الإجراءات الاحترازية تعد "ضرورية، خاصة في سياق الانتخابات"، لتعزيز النزاهة والشفافية في استخدام تقنيات الذكاء الاصطناعي خلال هذه الفترة الحساسة.

الرئيس التنفيذي لشركة أوبن إي آي سام ألتمان يتحدث خلال مؤتمر بخصوص الذكاء الاصطناعي في نيويورك 23 أيلول سبتمبر 2024Bryan R. Smith/Pool Agence France Press/AP

وأوضحت الشركة أن هذا "التحرك يأتي ضمن الجهود الأساسية التي تبذلها لمنع استخدام أدواتها لأغراض خادعة أو ضارة". وأضافت، عبر مدونتها، أن فرق العمل في الشركة "لم تجد أي دليل" يشير إلى استخدام منصاتها للتأثير على الانتخابات الأمريكية.

تسعى أوبن إي آي من خلال هذه التدابير إلى تأكيد التزامها بالمسؤولية والشفافية في تطوير واستخدام تقنيات الذكاء الاصطناعي، خاصة في أوقات حساسة كفترة الانتخابات. وتهدف الشركة إلى ضمان عدم استغلال أدواتها بطرق قد تؤثر سلبًا على العملية الانتخابية أو تضر بالنزاهة العامة للمعلومات، مشيرةً إلى أن هذه الخطوات تأتي ضمن استراتيجية متكاملة لحماية المستخدمين والمجتمع من أي ممارسات ضارة.

Relatedلوحة بورتريه آلان تورينغ باستخدام الذكاء الاصطناعي تباع بـ 1.32 مليون دولار في دار "سوذبيز" للمزاداتالذكاء الاصطناعي يحلّ "لغز الحياة": كيف يتصل الحيوان المنوي بالبويضة؟بسبب الذكاء الاصطناعي.. ثلاثة ملايين وظيفة مهددة في بريطانيا

كما أشارت أوبن إي آي إلى أنها قامت، في شهر آب/ أغسطس الماضي، بإيقاف حملة إيرانية تُعرف باسم "ستورم-2035" (Storm-2035)، كانت تستهدف نشر مقالات حول السياسة الأمريكية بشكل يوحي بأنها صادرة عن مصادر إعلامية رسمية وموثوقة.

وأكدت الشركة أنها حظرت الحسابات المرتبطة بهذه الحملة من استخدام منصاتها للذكاء الاصطناعي، كجزء من إجراءاتها لمكافحة الأنشطة المشبوهة والحد من استغلال التقنيات لأغراض التضليل الإعلامي. وتأتي هذه الخطوة ضمن التزام أوبن إي آي بمبادئ الشفافية والمسؤولية في استخدام تقنيات الذكاء الاصطناعي، والعمل على حماية الساحة الإعلامية من أي محاولات تهدف لتضليل الرأي العام أو التأثير عليه بطرق غير نزيهة.

Go to accessibility shortcutsشارك هذا المقالمحادثة مواضيع إضافية "تشات جي بي تي" تعلن أنها ستفتح مكتبا في باريس سعيا للتمركز في أوروبا يُخطط رئيس سناب تشات لجذب العلامات التجارية الكبرى "تيك توك" لـ "يورونيوز" بعد قضية انتحار مراهقتين: أولياء الأمور يمكنهم مراقبة استخدام التطبيق الانتخابات الرئاسية الأمريكية 2024 كامالا هاريس الذكاء الاصطناعي دونالد ترامب أوبن أيه آي أخبار مزيفة اعلاناخترنا لك يعرض الآن Next مباشر. اليوم الـ 402 للحرب: إسرائيل تستمر في قصف غزة ولبنان وتعلن مقتل 26 من جنودها في الجبهتين يعرض الآن Next سيناريو خارج المألوف.. إيران قد تهاجم إسرائيل برياً يعرض الآن Next ستارمر وماكرون يحتفلان بالذكرى الـ106 للهدنة في باريس يعرض الآن Next نجل ترامب يسخر من زيلينسكي بعد إعادة انتخاب والده: "أنت على بعد أيام من خسارة مصروفك" يعرض الآن Next الرياض تستضيف قمة "جدية" لبحث سبل وقف الحرب الإسرائيلية على غزة ولبنان.. فهل تصغي تل أبيب؟ اعلانالاكثر قراءة المحكمة الجنائية الدولية تفتح تحقيقًا ضد كريم خان بسبب "سلوك غير لائق".. ما القصة؟ مارس الجنس مع 400 من زوجات كبار الشخصيات أمام الكاميرا.. فضيحة مسؤول كيني يعتقد أنه مصاب بمرض الإيدز هو الهجوم الأكبر منذ بداية الحرب.. 34 طائرة أوكرانية مسيّرة فوق سماء موسكو اليابان ترفع السن القانوني لممارسة الجنس من 13 إلى 16 عاما إسبانيا: غضب شعبي عارم في فالنسيا واحتجاجات تطالب باستقالة المسؤولين اعلان

LoaderSearchابحث مفاتيح اليومالانتخابات الرئاسية الأمريكية 2024إسرائيلالصراع الإسرائيلي الفلسطيني دونالد ترامبإيطالياأمستردام/سكيبولغزةفرنساالحرب في أوكرانيا فلسطينلبنانكير ستارمرالموضوعاتأوروباالعالمالأعمالGreenNextالصحةالسفرالثقافةفيديوبرامجخدماتمباشرنشرة الأخبارالطقسآخر الأخبارتابعوناتطبيقاتتطبيقات التواصلWidgets & ServicesJob offers from AmplyAfricanewsعرض المزيدAbout EuronewsCommercial ServicesTerms and ConditionsCookie Policyسياسة الخصوصيةContactPress officeWork at Euronewsتعديل خيارات ملفات الارتباطتابعوناالنشرة الإخباريةCopyright © euronews 2024

المصدر: euronews

كلمات دلالية: الانتخابات الرئاسية الأمريكية 2024 إسرائيل الصراع الإسرائيلي الفلسطيني دونالد ترامب إيطاليا الانتخابات الرئاسية الأمريكية 2024 إسرائيل الصراع الإسرائيلي الفلسطيني دونالد ترامب إيطاليا الانتخابات الرئاسية الأمريكية 2024 كامالا هاريس الذكاء الاصطناعي دونالد ترامب أوبن أيه آي أخبار مزيفة الانتخابات الرئاسية الأمريكية 2024 إسرائيل الصراع الإسرائيلي الفلسطيني دونالد ترامب إيطاليا غزة فرنسا الحرب في أوكرانيا فلسطين لبنان كير ستارمر الانتخابات الأمریکیة الذکاء الاصطناعی یعرض الآن Next أوبن إی آی

إقرأ أيضاً:

احتيال شركات الذكاء الاصطناعي يجب أن يتوقف

مع تقدم الذكاء الاصطناعي وتغلغله في حياتنا على نحو متزايد، يبدو من الواضح أنه من غير المحتمل أن يخلق المدينة التكنولوجية الفاضلة ومن غير المرجح أن يتسبب في محو البشرية. النتيجة الأكثر احتمالا هي مكان ما في المنتصف ــ مستقبل يتشكل من خلال الطوارئ، والحلول الوسط، وعلى جانب عظيم من الأهمية، القرارات التي نتخذها الآن حول كيفية تقييد وتوجيه تطور الذكاء الاصطناعي.

باعتبارها الرائدة عالميا في مجال الذكاء الاصطناعي، تضطلع الولايات المتحدة بدور مهم بشكل خاص في تشكيل هذا المستقبل. لكن خطة عمل الذكاء الاصطناعي التي أعلن عنها الرئيس الأمريكي دونالد ترامب مؤخرا بددت الآمال في تعزيز الإشراف الفيدرالي، فاحتضنت بدلا من ذلك نهجا داعما للنمو في تطوير التكنولوجيا. وهذا يجعل التركيز من جانب حكومات الولايات، والمستثمرين، والجمهور الأمريكي على أداة مُـساءلة أقل إخضاعا للمناقشة، ألا وهي حوكمة الشركات ضرورة أشد إلحاحا. وكما توثق الصحفية كارين هاو في كتابها «إمبراطورية الذكاء الاصطناعي»، فإن الشركات الرائدة في هذا المجال منخرطة بالفعل في المراقبة الجماعية، وهي تستغل عمالها، وتتسبب في تفاقم تغير المناخ. من عجيب المفارقات هنا أن كثيرا منها شركات منفعة عامة (PBCs)، وهي بنية حوكمة يُزعم أنها مصممة لتجنب مثل هذه الانتهاكات وحماية البشرية. ولكن من الواضح أنها لا تعمل على النحو المنشود.

كانت هيكلة شركات الذكاء الاصطناعي على أنها شركات منفعة عامة شكلا ناجحا للغاية من أشكال الغسيل الأخلاقي. فبإرسال إشارات الفضيلة إلى الهيئات التنظيمية وعامة الناس، تخلق هذه الشركات قشرة من المساءلة تسمح لها بتجنب المزيد من الرقابة الجهازية على ممارساتها اليومية، والتي تظل مبهمة وربما ضارة. على سبيل المثال، تُـعَـد xAI التي يملكها إيلون ماسك شركة منفعة عامة تتمثل مهمتها المعلنة في «فهم الكون». لكن تصرفات الشركة ــ من بناء كمبيوتر خارق مُـلَـوِّث في السر بالقرب من حي تقطنه أغلبية من السود في ممفيس بولاية تينيسي، إلى إنشاء روبوت محادثة يشيد بهتلر ــ تُظهر قدرا مزعجا بشدة من عدم الاكتراث بالشفافية، والرقابة الأخلاقية، والمجتمعات المتضررة.

تُعد شركات المنفعة العامة أداة واعدة لتمكين الشركات من خدمة الصالح العام مع السعي إلى تحقيق الربح في الوقت ذاته. لكن هذا النموذج، في هيئته الحالية ــ خاصة في ظل قانون ولاية ديلاوير، الولاية التي تتخذها معظم الشركات العامة الأمريكية مقرا لها ــ مليء بالثغرات وأدوات الإنفاذ الضعيفة، وهو بالتالي عاجز عن توفير الحواجز اللازمة لحماية تطوير الذكاء الاصطناعي. لمنع النتائج الضارة، وتحسين الرقابة، وضمان حرص الشركات على دمج المصلحة العامة في مبادئها التشغيلية، يتعين على المشرعين على مستوى الولايات، والمستثمرين، وعامة الناس المطالبة بإعادة صياغة شركات المنفعة العامة وتعزيز قدراتها. من غير الممكن تقييم الشركات أو مساءلتها في غياب أهداف واضحة، ومحددة زمنيا، وقابلة للقياس الكمي. لنتأمل هنا كيف تعتمد شركات المنفعة العامة في قطاع الذكاء الاصطناعي على بيانات منافع شاملة وغير محددة يُزعَم أنها توجه العمليات. تعلن شركة OpenAI أن هدفها هو «ضمان أن يعود الذكاء الاصطناعي العام بالفضل على البشرية جمعاء»، بينما تهدف شركة Anthropic إلى «تحقيق أعظم قدر من النتائج الإيجابية لصالح البشرية في الأمد البعيد». المقصود من هذه الطموحات النبيلة الإلهام، لكن غموضها من الممكن أن يستخدم لتبرير أي مسار عمل تقريبا ــ بما في ذلك مسارات تعرض الصالح العام للخطر. لكن قانون ولاية ديلاوير لا يُـلزِم الشركات بتفعيل منفعتها العامة من خلال معايير قابلة للقياس أو تقييمات مستقلة. ورغم أنها تطالب بتقديم تقارير كل سنتين حول أداء المنفعة، فإنها لا تلزم الشركات بإعلان النتائج. بوسع الشركات أن تفي بالتزاماتها ــ أو تهملها ــ خلف الأبواب المغلقة، دون أن يدري عامة الناس شيئا. أما عن الإنفاذ، فبوسع المساهمين نظريا رفع دعوى قضائية إذا اعتقدوا أن مجلس الإدارة فشل في دعم مهمة الشركة في مجال المنفعة العامة. لكن هذا سبيل انتصاف أجوف، لأن الأضرار الناجمة عن الذكاء الاصطناعي تكون منتشرة، وطويلة الأجل، وخارجة عن إرادة المساهمين عادة. ولا يملك أصحاب المصلحة المتضررون ــ مثل المجتمعات المهمشة والمقاولين الذين يتقاضون أجورا زهيدة ــ أي سبل عملية للطعن في المحاكم. وللاضطلاع بدور حقيقي في حوكمة الذكاء الاصطناعي، يجب أن يكون نموذج «شركات المنفعة العامة» أكثر من مجرد درع للسمعة. وهذا يعني تغيير كيفية تعريف «المنفعة العامة»، وحوكمتها، وقياسها، وحمايتها بمرور الوقت. ونظرا لغياب الرقابة الفيدرالية، يجب أن يجري إصلاح هذا الهيكل على مستوى الولايات. يجب إجبار شركات المنفعة العامة على الالتزام بأهداف واضحة، وقابلة للقياس، ومحددة زمنيا، ومكتوبة في وثائقها الإدارية، ومدعومة بسياسات داخلية، ومربوطة بمراجعات الأداء والمكافآت والتقدم الوظيفي. بالنسبة لأي شركة عاملة في مجال الذكاء الاصطناعي، من الممكن أن تشمل هذه الأهداف ضمان سلامة نماذج المؤسسات، والحد من التحيز في مخرجات النماذج، وتقليل البصمة الكربونية الناجمة عن دورات التدريب والنشر، وتنفيذ ممارسات العمل العادلة، وتدريب المهندسين ومديري المنتجات على حقوق الإنسان والأخلاقيات والتصميم التشاركي. الأهداف المحددة بوضوح، وليس التطلعات الغامضة، هي التي ستساعد الشركات على بناء الأساس للمواءمة الداخلية الجديرة بالثقة والمساءلة الخارجية. يجب أيضا إعادة تصور مجالس الإدارة وعملية الإشراف. ينبغي لمجالس الإدارة أن تضم مديرين ذوي خبرة يمكن التحقق منها في أخلاقيات الذكاء الاصطناعي، والسلامة، والأثر الاجتماعي، والاستدامة. يجب أن يكون لكل شركة مسؤول أخلاقي رئيسي يتمتع بتفويض واضح، وسلطة مستقلة، والقدرة على الوصول المباشر إلى مجلس الإدارة. ينبغي لهؤلاء المسؤولين أن يشرفوا على عمليات المراجعة الأخلاقية وأن يُمنحوا سلطة وقف أو إعادة تشكيل خطط المنتجات عند الضرورة. وأخيرا، يجب أن تكون شركات الذكاء الاصطناعي المهيكلة كمؤسسات منفعة عامة مُلـزَمة بنشر تقارير سنوية مفصلة تتضمن بيانات كاملة ومصنفة تتعلق بالسلامة والأمن، والتحيز والإنصاف، والأثر الاجتماعي والبيئي، وحوكمة البيانات. وينبغي لعمليات تدقيق مستقلة ــ يديرها خبراء في الذكاء الاصطناعي، والأخلاقيات، والعلوم البيئية، وحقوق العمال ــ أن تعكف على تقييم صحة هذه البيانات، بالإضافة إلى ممارسات الحوكمة في الشركة وتواؤمها في عموم الأمر مع أهداف المنفعة العامة.

أكدت خطة عمل ترامب للذكاء الاصطناعي على عدم رغبة إدارته في تنظيم هذا القطاع السريع الحركة. ولكن حتى في غياب الإشراف الفيدرالي، بوسع المشرعين على مستوى الولايات، والمستثمرين، وعامة الناس تعزيز حوكمة إدارة الشركات للذكاء الاصطناعي بممارسة الضغوط من أجل إصلاح نموذج شركات المنفعة العامة. يبدو أن عددا متزايدا من قادة التكنولوجيا يعتقدون أن الأخلاقيات أمر اختياري. ويجب على الأمريكيين أن يثبتوا أنهم على خطأ، وإلا فإنهم يتركون التضليل، والتفاوت بين الناس، وإساءة استخدام العمالة، وقوة الشركات غير الخاضعة للرقابة تشكل مستقبل الذكاء الاصطناعي.

كريستوفر ماركيز أستاذ إدارة الأعمال في جامعة كامبريدج ومؤلف كتاب «المستغلون: كيف تقوم الشركات بخصخصة الأرباح وتأميم التكاليف»

خدمة «بروجيكت سنديكيت»

مقالات مشابهة

  • طفرة في تطبيقات الذكاء الاصطناعي.. 1.87مليار عائدات في أشهر
  • المعلمون في خطر.. خاصية جديدة في "تشات جي بي تي" تشرح الدروس
  • احتيال شركات الذكاء الاصطناعي يجب أن يتوقف
  • هيئة مكافحة الاحتكار الإيطالية تحقق مع ميتا بشأن دمج الذكاء الاصطناعي في واتساب
  • السباق الاستخباراتي على الذكاء الاصطناعي
  • وضع الدراسة بـ تشات جي بي تي.. ميزة جديدة تغيّر قواعد التعلم الذكي
  • الصين تعزز استخدام الذكاء الاصطناعي في الزراعة الذكية
  • معضلة الذكاء الاصطناعي والمؤلف العلمي
  • أخلاقيات الإبداع: مستقبل العلاقة الجدلية بين الذكاء الاصطناعي والملكية الفكرية
  • حوارٌ مثيرٌ مع الذكاء الاصطناعي