واشنطن تدعم مؤتمر قراصنة لاكتشاف ثغرات الذكاء الاصطناعي.. ما الدوافع؟
تاريخ النشر: 7th, August 2023 GMT
دعم البيت الأبيض أكبر مؤتمر سنوي للقراصنة في العالم في لاس فيغاس، "ديف كون 31"، خلال الأسبوع الجاري، لاكتشاف عيوب الذكاء الاصطناعي، بمشاركة كبرى شركات التكنولوجيا في العالم.
وعلى مدار يومين ونصف اليوم، سيتم منح 3 آلاف شخص يعملون بمفردهم في واحد من 158 جهاز كمبيوتر محمولا 50 دقيقة، لمحاولة اكتشاف عيوب في ثمانية نماذج كبيرة للذكاء الاصطناعي.
وشاركت رومان شودري، الرئيسة التنفيذية لشركة هيومن إنتلجنس وزميلة الذكاء الاصطناعي المسؤول في جامعة هارفارد، في تنظيم هذا الحدث.
وجاءت التظاهرة "لتحديد المشاكل في أنظمة الذكاء الاصطناعي" و"إنشاء تقييم مستقل"، بحسب شودري التي قالت إن الحدث سيكون مساحة آمنة للشركات "للحديث عن مشاكلهم وكيفية حلها".
وخلال الحدث تم إقناع شركات ميتا، غوغل، أوبن إي أي، أنثروبيك، كوير، ميكروسوفت، إنفيديا وستابيليتي بفتح نماذجهم ليتم اختراقها لتحديد المشكلات.
وفي تعليق، قالت شودري إن الشركات تعرف أن العديد من الأشياء يمكن أن تسوء، لذا فإن المنافسة هي وسيلة لمعرفة ما يحدث عندما تتحدى مجموعة محددة من المخترقين نماذجهم في مواجهة الوقت.
لن يعرف المتسابقون نموذج الشركة الذي يعملون معه، على الرغم من أن المتسابقين ذوي الخبرة قد يكونون قادرين على التخمين. يؤدي إكمال التحدي الناجح إلى ربح نقاط ويفوز الشخص الذي حقق أعلى إجمالي.
الجائزة عبارة عن قطعة قوية من أدوات الحوسبة، وحدة معالجة رسومات، ولكن ربما الأهم من ذلك وفقا لشودري ستكون "حقوق المفاخرة".
يطلب أحد التحديات من المخترقين الحصول على نموذج للهلوسة (بالمعلومات) أو اختراع حقيقة حول شخص سياسي أو شخصية رئيسية.
بدورها، قالت سيرافينا غولدفارب - تارانت، رئيسة سلامة الذكاء الاصطناعي في كوير، إنه بينما من المعروف أن النماذج يمكن أن تصنع الحقائق، فليس من الواضح مدى تكرار حدوثها.
وأضافت: "نعلم أن النماذج تهلوس بالمعلومات، لكن سيكون من المفيد زيادة الوعي بعدد المرات التي يحدث فيها ذلك. ما زلنا لا نعرف".
سيتم أيضا اختبار اتساق النماذج، وتقول غولدفارب - تارانت إن هناك مخاوف بشأن كيفية عملها عبر اللغات المختلفة.
ويحظى الحدث بدعم الإدارة الأمريكية، بعد أن أثارت وتيرة تطوير الشركات لأدواتها مخاوف بشأن انتشار المعلومات المضللة، خاصة قبل الانتخابات الرئاسية الأمريكية العام المقبل.
وفي تموز/ يوليو الماضي، التزمت سبع شركات رائدة في مجال الذكاء الاصطناعي بضمانات طوعية لإدارة المخاطر التي تشكلها التكنولوجيا، لكن الضمانات القانونية ستستغرق وقتا أطول ليتم الاتفاق عليها.
وفي تعليق، قالت شودري إن هناك "سباق تسلح منظم يحدث الآن"، وهذا الحدث هو وسيلة لتسليط الضوء على مشاكل الذكاء الاصطناعي الحالية بدلا من التهديدات الوجودية.
وأضافت أن الأمر لا يتعلق بالسؤال عما إذا كان بإمكان الذكاء الاصطناعي تفجير سلاح نووي، بل يتعلق أكثر بتحدي الأنظمة "لمعرفة ما إذا كانت تشتمل على أضرار وتحيزات".
بمجرد الانتهاء من التحدي، ستتمكن الشركات من رؤية البيانات التي تم جمعها، والاستجابة لأي عيوب تم إبرازها.
سيتمكن الباحثون المستقلون من طلب الوصول إلى البيانات، مع نشر نتائج التجربة في شباط/ فبراير المقبل.
المصدر: عربي21
كلمات دلالية: سياسة اقتصاد رياضة مقالات صحافة أفكار عالم الفن تكنولوجيا صحة تفاعلي سياسة اقتصاد رياضة مقالات صحافة أفكار عالم الفن تكنولوجيا صحة تفاعلي تكنولوجيا علوم وتكنولوجيا علوم وتكنولوجيا البيت الأبيض الذكاء الاصطناعي التكنولوجيا امريكا البيت الأبيض التكنولوجيا الذكاء الاصطناعي علوم وتكنولوجيا علوم وتكنولوجيا علوم وتكنولوجيا علوم وتكنولوجيا علوم وتكنولوجيا علوم وتكنولوجيا تكنولوجيا تكنولوجيا تكنولوجيا سياسة تكنولوجيا تكنولوجيا تكنولوجيا تكنولوجيا تكنولوجيا تكنولوجيا تكنولوجيا تكنولوجيا تكنولوجيا سياسة اقتصاد رياضة صحافة أفكار عالم الفن تكنولوجيا صحة الذکاء الاصطناعی
إقرأ أيضاً:
تليفونك بيراقبك .. كيف تجمع أدوات الذكاء الاصطناعي بياناتك
تجمع أدوات الذكاء الاصطناعي بياناتٍ كثيرةً عن المستخدمين للتنبؤ بسلوكهم وفي المقابل، يمكنك منعها من تتبعك باتباع بعض الخطوات.
مخاوف كبيرةوفقا لموقع" indiatvnews "فمن استخدام مساعدي الذكاء الاصطناعي مثل ChatGPT أو Microsoft Copilot إلى تتبع روتين اللياقة البدنية اليومي باستخدام الساعات الذكية، يتفاعل العديد من الأفراد مع أنظمة أو أدوات الذكاء الاصطناعي يوميًا. وبينما تُعزز هذه التقنيات بلا شك الراحة، إلا أنها تُثير أيضًا مخاوف كبيرة بشأن خصوصية البيانات.
أشار كريستوفر رامزان، الأستاذ المساعد في الأمن السيبراني بجامعة وست فرجينيا، أن برامج الذكاء الاصطناعي التوليدية تعتمد على كميات هائلة من بيانات التدريب لإنتاج محتوى جديد، مثل النصوص أو الصور، بينما يستخدم الذكاء الاصطناعي التنبئي البيانات للتنبؤ بالنتائج بناءً على سلوكك السابق - مثل تقييم احتمالية تحقيق هدفك اليومي من الخطوات أو التوصية بأفلام قد تستمتع بها. يمكن استخدام كلا النوعين من الذكاء الاصطناعي لجمع معلومات عن الأفراد.
كيف تجمع أدوات الذكاء الاصطناعي البيانات
يوضح رامزان أن مساعدي الذكاء الاصطناعي المُولِّدين، مثل ChatGPT وGoogle Gemini، يجمعون جميع المعلومات التي يُدخلها المستخدمون في مربع الدردشة. ويُسجَّل كل سؤال وإجابة ورسالة يُدخلها المستخدمون، ويُخزَّن ويُحلَّل لتحسين نموذج الذكاء الاصطناعي. ويُشير إلى أنه على الرغم من أن OpenAI تُتيح للمستخدمين خيار إلغاء الاشتراك في استخدام المحتوى إلا أنها لا تزال تجمع البيانات الشخصية وتحتفظ بها. ورغم ادعاء بعض الشركات إخفاء هوية هذه البيانات - أي تخزينها دون تحديد هوية مُقدِّميها - إلا أن خطر إعادة تحديد هوية البيانات لا يزال قائمًا.
خصوصية بياناتيوضح رامزان أنه بالإضافة إلى مساعدي الذكاء الاصطناعي ، تجمع منصات التواصل الاجتماعي مثل فيسبوك وإنستجرام وتيك توك بيانات مستخدميها باستمرار لتحسين نماذج الذكاء الاصطناعي التنبؤية.
وعلاوة على ذلك، يشير رامزان إلى أن الأجهزة الذكية، بما في ذلك مكبرات الصوت المنزلية، وأجهزة تتبع اللياقة البدنية، والساعات الذكية، تجمع المعلومات باستمرار من خلال أجهزة الاستشعار البيومترية، والتعرف على الصوت، وتتبع الموقع..
غالبًا ما تُخزَّن البيانات التي تجمعها أدوات الذكاء الاصطناعي في البداية لدى شركة موثوقة، ولكن يُمكن بيعها أو مشاركتها بسهولة مع مؤسسات قد لا تكون بنفس القدر من الموثوقية ويؤكد أن القوانين الحالية لا تزال قيد التطوير لمواجهة تحديات الذكاء الاصطناعي وخصوصية البيانات.