رئيس "سدايا": المملكة حريصة على تطوير الذكاء الاصطناعي بشكل مسؤول
تاريخ النشر: 22nd, May 2024 GMT
أكد رئيس الهيئة السعودية للبيانات والذكاء الاصطناعي (سدايا) الدكتورعبد الله بن شرف الغامدي، حرص المملكة العربية السعودية على تطوير الذكاء الاصطناعي بشكل مسؤول وآمن من خلال تطبيق الإجراءات الاستباقية والتعاون الاستراتيجي والالتزام الثابت بالمعايير الأخلاقية؛ بهدف تسخير الإمكانات التحويلية للذكاء الاصطناعي لصالح البشرية جمعاء.
جاء ذلك خلال كملة ألقاها في الجلسة الوزارية التي أقيمت اليوم ضمن أعمال قمة سيئول للذكاء الاصطناعي التي تنظمها كوريا وبريطانيا في مدينة سيئول بجمهورية كوريا خلال الفترة من 21 - 22 مايو 2024، تحت عنوان "التدابير لتقوية سلامة الذكاء الاصطناعي" بحضور عدد كبير من وزراء التقنية والذكاء الاصطناعي والاتصالات من مختلف دول العالم بالإضافة إلى كبرى شركات الاتصالات والتقنية والخبراء والمبتكرين في مجالات تقنيات الذكاء الاصطناعي.
أخبار متعلقة "الترميز".. خدمة متقنة لتسهيل نقل أمتعة ضيوف الرحمنمنفذ جديدة عرعر البري.. منظومة من الخدمات الرقمية لتسهيل إجراءات الحجاج العراقيينوقال: إن المملكة ملتزمة بالمساهمة في وضع معايير دولية وأطر تنظيمية تعطي الأولوية لسلامة الذكاء الاصطناعي من خلال ضمان تلبية تقنيات الذكاء الاصطناعي لمعايير السلامة الصارمة، ونهدف إلى تسهيل اتباع نهج منسق عالمياً لحوكمة الذكاء الاصطناعي، وستستفيد (سدايا) من الرؤى الواردة في التقرير الدولي لسلامة الذكاء الاصطناعي في تطوير سياسات شاملة وخطط للتقليل من الآثار السلبية، من أجل النشر الآمن للذكاء الاصطناعي في جميع القطاعات، حيث تؤكد هذه المبادرة التزامنا بضمان التكامل الآمن للذكاء الاصطناعي، وتأمين رؤيتنا لمستقبل آمن مدعوم بالذكاء الاصطناعي، حيث يعد التعاون الدولي في صميم نهجنا.
.article-img-ratio{ display:block;padding-bottom: 67%;position:relative; overflow: hidden;height:0px; } .article-img-ratio img{ object-fit: contain; object-position: center; position: absolute; height: 100% !important;padding:0px; margin: auto; width: 100%; } الدكتورعبد الله بن شرف الغامدي خلال كلمته- واس قمة الذكاء الاصطناعيوأضاف الغامدي أن استضافة المملكة للقمة العالمية للذكاء الاصطناعي بمدينة الرياض في سبتمبر المقبل؛ ستعزز المناقشات الحيوية وتطوير بروتوكولات متسقة لسلامة الذكاء الاصطناعي.
وعبر عن التزام المملكة بتعزيز الوعي العام بالمخاطر المحتملة للذكاء الاصطناعي وتدابير السلامة من خلال التدريب المكثف والحملات التعليمية عبر دمج الأفكار الواردة في التقرير الدولي لسلامة الذكاء الاصطناعي؛ ومعالجة تحديات السلامة الخاصة بالذكاء الاصطناعي للأغراض العامة(GPAI) من خلال صياغة استراتيجيات للتقليل من الآثار السلبية وبروتوكولات أمان قوية.
وأوضح أن المملكة في مقدمة الدول الداعية إلى وضع معايير دولية لسلامة الذكاء الاصطناعي.
وبين أهمية مثل هذه القمم في تعزيز الحوار العالمي بشأن سلامة الذكاء الاصطناعي، وتشكيل مستقبل يتم فيه الدمج الأخلاقي لتقنيات الذكاء الاصطناعي في مجتمعاتنا بأمان، مفيدًا أن المملكة العربية السعودية عضواً فاعلاً في مجتمع الذكاء الاصطناعي الدولي وتشارك بنشاط في إعداد التقرير العلمي الدولي المؤقت لسلامة الذكاء الاصطناعي المتقدم، حيث يعد هذا التقرير جهد تعاوني بين 30 دولة مع منظمة الأمم المتحدة، ويوفر إطاراً ضرورياً لفهم المخاطر المرتبطة بتقنيات الذكاء الاصطناعي المتقدمة والتخفيف من حدتها.تقنيات الذكاء الاصطناعيوأشار الدكتور الغامدي إلى أن المبادرات الوطنية تعد بمثابة معايير مرجعية، وذلك بسبب تطبيقها تقييمات شاملة للمخاطر وأنظمة مراقبة مستمرة وتدابير سلامة استباقية، وعند دمج الذكاء الاصطناعي في القطاعات الاقتصادية الرئيسية.
وأشار إلى أهمية منح الأولوية لفحوصات وبروتوكولات السلامة الصارمة لمنع المخاطر وتعزيز المرونة القطاعية، وبالتالي دعم التنويع الاقتصادي وضمان مساهمة تقنيات الذكاء الاصطناعي إسهاماً إيجابياً في تحقيق أهدافنا التنموية الوطنية.
وتناقش قمة سيئول للذكاء الاصطناعي موضوعات تعزيز التعاون العالمي في مجال سلامة الذكاء الاصطناعي، ومشاركة الجهود الوطنية والمؤسسية لتعزيز سلامة الذكاء الاصطناعي، والمخاطر الناشئة من نماذج الذكاء الاصطناعي الرائدة الحالية والمستقبلية إضافة إلى تعزيز قدرة المجتمع الدولي على الاستجابة لمخاطر الذكاء لاصطناعي، واكتشاف العديد من الفرص للتعاون الدولي المتخصص في مجال سلامة الذكاء الاصطناعي.
المصدر: صحيفة اليوم
كلمات دلالية: الأمير بدر بن عبدالمحسن الأمير بدر بن عبدالمحسن الأمير بدر بن عبدالمحسن واس سيئول سدايا رئيس سدايا الذكاء الاصطناعي الذكاء الاصطناعي في السعودية تقنیات الذکاء الاصطناعی سلامة الذکاء الاصطناعی للذکاء الاصطناعی الاصطناعی فی من خلال
إقرأ أيضاً:
هل يجوز للذكاء الاصطناعي كتابة الأبحاث العلمية؟ العلماء منقسمون
مع ثورة الذكاء الاصطناعي الكبيرة وإسهاماته في مجال العلوم، تختلف آراء العلماء في استخدام هذه الأدوات لكتابة الأوراق البحثية، ويأتي ذلك في سياق تزايد الأوراق البحثية التي تُظهر استخدام الذكاء الاصطناعي، ليثير تساؤلات عن الانتحال العلمي ومخاوف أخلاقية أخرى.
وقد أجرت مجلة نيتشر استطلاع رأي شمل 5 آلاف أكاديمي كانت لهم آراء متناقضة حول قبول إشراك الذكاء الاصطناعي في الأبحاث، وما يجب على الباحثين الكشف عنه لدى استخدامهم للذكاء الاصطناعي.
وطرحت مجلة نيتشر مجموعة متنوعة من السيناريوهات على الباحثين لمعرفة استخدامات الذكاء الاصطناعي التي تعتبر مقبولة أخلاقيا.
وكانت استطلاعات الرأي السابقة قد كشفت أن الباحثين يستخدمون أيضًا أدوات الذكاء الاصطناعي التوليدي لمساعدتهم في البرمجة وتبادل الأفكار البحثية وفي العديد من المهام الأخرى. ويتفق معظم أعضاء المجتمع الأكاديمي بالفعل على أن هذه التطبيقات مناسبة في بعض الحالات، وغير مناسبة في حالات أخرى مثل توليد صور الذكاء الاصطناعي.
ولكن أحدث استطلاع رأي أجرته مجلة نيتشر ركز على كتابة المخطوطات ومراجعتها، وهي مجالات لا تتسم قواعدها الأخلاقية بالوضوح الكافي.
عرض استطلاع مجلة نيتشر مجموعة سيناريوهات استخدم فيها أكاديمي خيالي يُدعى الدكتور بلوغز الذكاء الاصطناعي من دون الإفصاح عن استخدامه. وقام بأشياء مثل إنشاء المسودة الأولى لورقة بحثية وتحرير مسودته الخاصة وصياغة أقسام محددة من الورقة وترجمة الورقة.
إعلانوتضمنت سيناريوهات أخرى استخدام الذكاء الاصطناعي لكتابة مراجعة أقران أو لتقديم اقتراحات حول مخطوطة كان الدكتور بلوغز يراجعها.
وسُئل المشاركون في الاستطلاع عمّا يرونه مقبولًا، وإذا كانوا قد استخدموا الذكاء الاصطناعي في مثل هذه الحالات، أو يرغبون في استخدامه. وكان الاستطلاع مجهول الهوية، وتم عبر رسائل بريد إلكتروني أُرسلت إلى باحثين من جميع أنحاء العالم، كان 21% منهم من الولايات المتحدة و10% من الهند و8% من ألمانيا وكانوا يمثلون مراحل ومجالات مهنية متنوعة.
ويشير الاستطلاع إلى تباين الآراء الحالية حول استخدام الذكاء الاصطناعي بين الأكاديميين، إذ يرى أكثر من 90% من المشاركين أنه من المقبول استخدام الذكاء الاصطناعي التوليدي لتحرير الأبحاث أو ترجمتها، لكنهم يختلفون حول ضرورة الإفصاح عن استخدام الذكاء الاصطناعي، وبأي صيغة يكون الإفصاح، فعلى سبيل المثال يمكن ذكر إفصاح بسيط عن استخدام الذكاء الاصطناعي، أو يمكن تقديم تفاصيل حول التوجيهات الموجهة لأداة الذكاء الاصطناعي.
وبخصوص إنشاء نصوص باستخدام الذكاء الاصطناعي، مثل كتابة بحث كامل أو جزء منه، يرى 65% من الباحثين أن ذلك مقبول أخلاقيا، بينما يعارضه حوالي الثلث.
وعند سؤالهم عن استخدام الذكاء الاصطناعي لصياغة أقسام محددة من ورقة بحثية، شعر معظم الباحثين بأن من المقبول القيام بذلك بالنسبة لملخص الورقة البحثية، لكن المزيد منهم عارضوا القيام بذلك بالنسبة لأقسام أخرى.
وعلى الرغم من أن الناشرين يتفقون عمومًا على ضرورة الإعلان عن الاستخدام الجوهري للذكاء الاصطناعي في الكتابة الأكاديمية، فإن استطلاع نيتشر يشير إلى أن رأي الباحثين ليس واحدًا.
كان استخدام الذكاء الاصطناعي لإعداد تقرير أولي لمراجعة الأقران موضع استنكار أكثر من 60% من المشاركين إذ رأو أنه غير مناسب وأشار حوالي ربعهم إلى مخاوف تتعلق بالخصوصية. ولكن الأغلبية (57%) رأت أن من المقبول استخدام الذكاء الاصطناعي للمساعدة في مراجعة الأقران من خلال الإجابة عن أسئلة حول المخطوطة.
عدد قليل من الأكاديميين هم الذين أفادو بأنهم استخدموا الذكاء الاصطناعي فعليا في السيناريوهات التي طرحتها مجلة نيتشر، فقد أفاد حوالي 28% فقط بأنهم استخدموا الذكاء الاصطناعي لتحرير أوراقهم البحثية، و43% أفادوا بأنهم مستعدون لذلك.
إعلانوانخفضت هذه الأرقام إلى حوالي 8% في كتابة المسودة الأولى وإعداد ملخصات لمقالات أخرى لاستخدامها في أوراقهم البحثية وترجمة أوراق بحثية ودعم مراجعة الأقران.
وقال 4% فقط من المشاركين إنهم استخدموا الذكاء الاصطناعي لإجراء مراجعة أولية بين الأقران.
وإجمالا، أفاد حوالي 65% من المشاركين بأنهم لم يستخدموا الذكاء الاصطناعي قط في أي من السيناريوهات المذكورة.
وكانت هناك استطلاعات سابقة حول استخدام الذكاء الاصطناعي في المجتمع الأكاديمي، ففي يناير/كانون الثاني نشر باحث صحي وزملاؤه في معهد أبحاث مستشفى أوتاوا في كندا استطلاعًا لأكثر من ألفي باحث طبي قال 45% منهم إنهم استخدموا روبوتات الدردشة بالذكاء الاصطناعي سابقًا.
ومن بين هؤلاء، قال أكثر من ثلثيهم إنهم استخدموها لكتابة المخطوطات أو تحريرها، وذلك يعني بشكل عام أن حوالي 31% من الأشخاص الذين شملهم الاستطلاع استخدموا الذكاء الاصطناعي لهذا الغرض، وهي نسبة مرتفعة قليلا عن استطلاع نيتشر.
وفي فبراير/شباط نشرت شركة وايلي دراسة استقصائية تتناول استخدام الذكاء الاصطناعي في الأوساط الأكاديمية شارك فيها ما يقرب من 5 آلاف باحث من أنحاء العالم. وكشف هذا الاستطلاع أن الباحثين يرون أن معظم استخدامات الذكاء الاصطناعي مثل كتابة الوثائق وزيادة سرعة وسهولة مراجعة الأقران ستحظى بقبول واسع النطاق في السنوات القليلة المقبلة.
لكن أقل من نصف المشاركين أفادوا بأنهم استخدموا الذكاء الاصطناعي فعليا في العمل، فقد أفاد 40% منهم بأنهم استخدموه للترجمة، و38% لمراجعة الأوراق البحثية أو تحريرها.
هل يجب الإفصاح عند استخدام الذكاء الاصطناعي؟لدى معظم ناشري الأبحاث إرشادات بشأن الذكاء الاصطناعي تحظر استخدامه لإنشاء البيانات أو النتائج مثل الصور أو تعديلها أو التلاعب بها. وتنصّ هذه الإرشادات عادة على أنه لا يمكن إدراج أداة الذكاء الاصطناعي كمؤلف، لأنها لا تتحمل مسؤولية العمل. ولكن السياسات تختلف اختلافًا كبيرًا، لا سيما في ما يتعلق بالإفصاح عن استخدام الذكاء الاصطناعي.
إعلانوعندما أُتيحت للباحثين المشاركين في استطلاع نيتشر فرصة التعليق تباينت آراؤهم بشكل كبير. فمن جهة، رأى بعضهم أن الانتشار الواسع لأدوات الذكاء الاصطناعي التوليدي جعل الإفصاح غير ضروري. ويرى بعضهم أن الذكاء الاصطناعي سيصبح -إن لم يكن كذلك بالفعل- أمرًا طبيعيا تمامًا مثل استخدام الآلة الحاسبة. ولن يكون الإفصاح مسألة مهمة.
ومن ناحية أخرى، قال البعض إن استخدام الذكاء الاصطناعي سيكون دائمًا غير مقبول، وإن استخدامه لكتابة الأبحاث أو مراجعتها عبارة عن غش واحتيال شائن.
ويرى آخرون أن المشكلة في الاعتماد المفرط عليه؛ فذلك قد يُشعر المرء بالغش، إذ يحرم الباحث نفسه من فرص التعلم من خلال الانخراط في عمليات قد تكون مُرهقة أحيانًا.
وقال البعض إن تجربتهم الشخصية كشفت أن الذكاء الاصطناعي غالبًا ما يُنتج نتائج دون المستوى المطلوب واستشهادات خاطئة، وبيانات غير دقيقة، وكما وصفها أحد المشاركين بأنها "هراء مُحكم الصياغة".
وكانت هناك أيضًا بعض الإيجابيات إذ أشار العديد من المشاركين إلى أن الذكاء الاصطناعي يمكن أن يساعد في تحقيق المساواة بين الأكاديميين الذين لا تعد اللغة الإنجليزية لغتهم الأولى.