اليابان تدرس وضع قواعد دولية للذكاء الاصطناعي
تاريخ النشر: 21st, April 2024 GMT
ذكر مصدر حكومي اليوم السبت أن اليابان تدرس إطلاق إطار لحوار جديد يضم الدول ذات الرؤى المشتركة لمناقشة اللوائح الدولية بشأن الاستخدام المناسب لتكنولوجيا الذكاء الاصطناعي التوليدي.
وتوقع المصدر أن يكشف رئيس الوزراء الياباني فوميو كيشيدا عن الخطة الخاصة بإطلاق اجتماع "الأصدقاء" بشأن قضايا الذكاء الاصطناعي في اجتماع المجلس الوزاري لمنظمة التعاون الاقتصادي والتنمية الذي من المقرر عقده في الفترة من 2 إلى 3 مايو (أيار) في العاصمة الفرنسية باريس، بحسب وكالة كيودو اليابانية للأنباء.
وأضاف المصدر أن اليابان سوف تدعو، من خلال هذا الإطار، إلى دعم أوسع لـ "عملية هيروشيما للذكاء الاصطناعي"، وهي مبادرة كانت قد أطلقتها مجموعة الدول السبع العام الماضي لتسهيل المناقشات حول وضع قواعد عالمية.
وتأتي هذه الخطوة في الوقت الذي يبحث فيه العالم عن كيفية تسخير أدوات الذكاء الاصطناعي التوليدية سريعة التطور، بينما تتزايد المخاوف من أن انتشار المعلومات المضللة من خلال إساءة استخدام الذكاء الاصطناعي ، قد يهدد الديمقراطية والاستقرار السياسي.
وتابع المصدر أن اليابان تهدف إلى لعب دور رائد في وضع القواعد الدولية للذكاء الاصطناعي، والتي سوف تدفع باتجاه تطوير هذه التكنولوجيا وتنظيمها.
في ديسمبر (كانون الأول) الماضي، وضع وزراء التكنولوجيا الرقمية لمجموعة السبع إطاراً سياسياً شاملاً للعملية، وافق عليه قادة مجموعة السبع خلال مؤتمر عبر الهاتف في الشهر نفسه.
وهذه أول خطة دولية شاملة تتضمن مبادئ توجيهية وقواعد سلوك ليس فقط للمطورين ولكن أيضاً للمستخدمين.
المصدر: أخبارنا
كلمات دلالية: الذکاء الاصطناعی
إقرأ أيضاً:
تليفونك بيراقبك .. كيف تجمع أدوات الذكاء الاصطناعي بياناتك
تجمع أدوات الذكاء الاصطناعي بياناتٍ كثيرةً عن المستخدمين للتنبؤ بسلوكهم وفي المقابل، يمكنك منعها من تتبعك باتباع بعض الخطوات.
مخاوف كبيرةوفقا لموقع" indiatvnews "فمن استخدام مساعدي الذكاء الاصطناعي مثل ChatGPT أو Microsoft Copilot إلى تتبع روتين اللياقة البدنية اليومي باستخدام الساعات الذكية، يتفاعل العديد من الأفراد مع أنظمة أو أدوات الذكاء الاصطناعي يوميًا. وبينما تُعزز هذه التقنيات بلا شك الراحة، إلا أنها تُثير أيضًا مخاوف كبيرة بشأن خصوصية البيانات.
أشار كريستوفر رامزان، الأستاذ المساعد في الأمن السيبراني بجامعة وست فرجينيا، أن برامج الذكاء الاصطناعي التوليدية تعتمد على كميات هائلة من بيانات التدريب لإنتاج محتوى جديد، مثل النصوص أو الصور، بينما يستخدم الذكاء الاصطناعي التنبئي البيانات للتنبؤ بالنتائج بناءً على سلوكك السابق - مثل تقييم احتمالية تحقيق هدفك اليومي من الخطوات أو التوصية بأفلام قد تستمتع بها. يمكن استخدام كلا النوعين من الذكاء الاصطناعي لجمع معلومات عن الأفراد.
كيف تجمع أدوات الذكاء الاصطناعي البيانات
يوضح رامزان أن مساعدي الذكاء الاصطناعي المُولِّدين، مثل ChatGPT وGoogle Gemini، يجمعون جميع المعلومات التي يُدخلها المستخدمون في مربع الدردشة. ويُسجَّل كل سؤال وإجابة ورسالة يُدخلها المستخدمون، ويُخزَّن ويُحلَّل لتحسين نموذج الذكاء الاصطناعي. ويُشير إلى أنه على الرغم من أن OpenAI تُتيح للمستخدمين خيار إلغاء الاشتراك في استخدام المحتوى إلا أنها لا تزال تجمع البيانات الشخصية وتحتفظ بها. ورغم ادعاء بعض الشركات إخفاء هوية هذه البيانات - أي تخزينها دون تحديد هوية مُقدِّميها - إلا أن خطر إعادة تحديد هوية البيانات لا يزال قائمًا.
خصوصية بياناتيوضح رامزان أنه بالإضافة إلى مساعدي الذكاء الاصطناعي ، تجمع منصات التواصل الاجتماعي مثل فيسبوك وإنستجرام وتيك توك بيانات مستخدميها باستمرار لتحسين نماذج الذكاء الاصطناعي التنبؤية.
وعلاوة على ذلك، يشير رامزان إلى أن الأجهزة الذكية، بما في ذلك مكبرات الصوت المنزلية، وأجهزة تتبع اللياقة البدنية، والساعات الذكية، تجمع المعلومات باستمرار من خلال أجهزة الاستشعار البيومترية، والتعرف على الصوت، وتتبع الموقع..
غالبًا ما تُخزَّن البيانات التي تجمعها أدوات الذكاء الاصطناعي في البداية لدى شركة موثوقة، ولكن يُمكن بيعها أو مشاركتها بسهولة مع مؤسسات قد لا تكون بنفس القدر من الموثوقية ويؤكد أن القوانين الحالية لا تزال قيد التطوير لمواجهة تحديات الذكاء الاصطناعي وخصوصية البيانات.