“يوم قيامة الذكاء الاصطناعي” قد تصرف الانتباه عن الخطر الحقيقي!
تاريخ النشر: 31st, October 2023 GMT
الولايات المتحدة – يعد التركيز على سيناريوهات يوم القيامة في الذكاء الاصطناعي بمثابة إلهاء، يقلل من المخاطر المباشرة، مثل توليد المعلومات الخاطئة على نطاق واسع، وفقا لخبير رائد في مجال الصناعة.
وقال إيدان غوميز، المعد المشارك لورقة بحثية ساعدت في إنشاء التكنولوجيا وراء روبوتات الدردشة، إن المخاطر على المدى طويل، مثل التهديدات الوجودية للإنسانية من الذكاء الاصطناعي يجب “دراستها ومتابعتها”، لكنها قد تصرف السياسيين عن التعامل مع المخاطر المباشرة المحتملة.
وقال غوميز إن الذكاء الاصطناعي – وهو المصطلح الذي يشير إلى أنظمة الكمبيوتر التي يمكنها أداء المهام المرتبطة عادة بالكائنات الذكية – كان بالفعل مستخدما على نطاق واسع، وينبغي أن تركز القمة على تطبيقاته، خاصة أن روبوتات الدردشة مثل ChatGPT ومولدات الصور مثل Midjourney، أذهلت الجمهور بقدرتها على إنتاج نصوص وصور معقولة من خلال مطالبات نصية بسيطة.
وأضاف: “هذه التكنولوجيا موجودة بالفعل في مليار منتج مستخدم، كما هو الحال في غوغل وغيرها. ويمثل ذلك مجموعة من المخاطر الجديدة التي يجب مناقشتها. يجب أن نركز بشكل مباشر على الأجزاء التي على وشك التأثير على الناس، بدلا من المناقشة الأكاديمية والنظرية حول المستقبل على المدى الطويل”.
وقال غوميز إن المعلومات الخاطئة – انتشار المعلومات المضللة أو غير الصحيحة عبر الإنترنت – كانت مصدر قلقه الرئيسي. وأوضح: “إن المعلومات المضللة هي التي تتصدر اهتماماتي. يمكن لنماذج [الذكاء الاصطناعي] هذه إنشاء وسائط مقنعة للغاية، ولا يمكن تمييزها فعليا عن النصوص أو الصور أو الوسائط التي أنشأها الإنسان. وهذا شيء نحتاج إلى معالجته بشكل عاجل.
ويشارك غوميز في قمة سلامة الذكاء الاصطناعي التي تستمر يومين، وتبدأ يوم الأربعاء القادم، بصفته الرئيس التنفيذي لـCohere، وهي شركة في أمريكا الشمالية تصنع أدوات الذكاء الاصطناعي للشركات بما في ذلك روبوتات الدردشة.
وفي عام 2017، عندما كان غوميز في العشرين من عمره، كان جزءا من فريق من الباحثين في غوغل الذين أنشأوا Transformer، وهي تقنية رئيسية وراء نماذج اللغة الكبيرة التي تعمل على تشغيل أدوات الذكاء الاصطناعي مثل برامج الدردشة الآلية.
وسيتضمن اليوم الافتتاحي للقمة، مناقشات حول مجموعة من قضايا الذكاء الاصطناعي، بما في ذلك المخاوف المتعلقة بالمعلومات المضللة مثل تعطيل الانتخابات وتآكل الثقة الاجتماعية. وسيناقش اليوم الثاني، الذي سيضم مجموعة أصغر من الدول والخبراء والمديرين التنفيذيين في مجال التكنولوجيا، الخطوات الملموسة التي يمكن اتخاذها لمعالجة مخاطر الذكاء الاصطناعي.
وتتمحور المخاوف بشأن التهديد الوجودي من الذكاء الاصطناعي حول احتمال ظهور ما يسمى بالذكاء الاصطناعي العام – وهو مصطلح يشير إلى نظام ذكاء اصطناعي قادر على تنفيذ مهام متعددة على مستوى الذكاء البشري أو فوق مستوى الذكاء البشري – والذي يمكنه من الناحية النظرية أن يكرر نفسه، أو يتجنب سيطرة الإنسان واتخاذ القرارات التي تتعارض مع مصالح الإنسان.
وأدت هذه المخاوف إلى نشر رسالة مفتوحة في شهر مارس، وقعها أكثر من 30 ألف متخصص وخبير في مجال التكنولوجيا، بما في ذلك إيلون ماسك، تدعو إلى التوقف لمدة ستة أشهر في تجارب الذكاء الاصطناعي العملاقة.
المصدر: الغارديان
المصدر: صحيفة المرصد الليبية
كلمات دلالية: الذکاء الاصطناعی
إقرأ أيضاً:
جوجل تختبر عناوين ومُلخصات الذكاء الاصطناعي في Discover
في خطوة جديدة تظهر مدى تغلغل الذكاء الاصطناعي في خدمات جوجل اليومية، بدأت الشركة باختبار معالجة المقالات باستخدام الذكاء الاصطناعي داخل منصة Discover، مما أثار جدلًا بين الناشرين والخبراء حول دقة المعلومات ودور جوجل كوسيط إعلامي.
لاحظ موقع The Verge أن بعض المقالات المعروضة لمستخدمي Discover تحمل عناوين رئيسية مولدة بالذكاء الاصطناعي تختلف عن العناوين الأصلية المنشورة، وأحيانًا تكون مضللة أو خاطئة تمامًا.
على سبيل المثال، تم عرض عنوان جديد لمقال منشور على Ars Technica باسم "الكشف عن سعر جهاز Steam Machine"، بينما كان العنوان الأصلي يقول: "جهاز Steam Machine من Valve يبدو كجهاز تحكم، لكن لا تتوقع أن يكون سعره كذلك". لا توجد أي معلومات رسمية عن الأسعار، سواء في المقال الأصلي أو في أي منشور آخر من Valve.
هذه الفجوة بين العنوان المولّد بالذكاء الاصطناعي والمحتوى الأصلي توضح المخاطر التي قد تنجم عن اعتماد الذكاء الاصطناعي في صياغة العناوين، خصوصًا أن المستخدم قد يتلقف معلومات غير دقيقة دون وعي.
لم يقتصر الأمر على العناوين، بل شمل المُلخصات أيضًا. لاحظ فريق Engadget أن Discover قد يعرض العناوين الأصلية مع ملخصات مولدة بالذكاء الاصطناعي، تحمل علامة تشير إلى أنها مولدة بالذكاء الاصطناعي، ما يُنبّه المستخدم لاحتمالية وجود أخطاء، لكنه لا يمنع هذه الأخطاء من الوصول إلى القراء. بعض الخبراء يرون أن الحذر الأفضل كان يتمثل في الامتناع عن استخدام الذكاء الاصطناعي في هذه الحالات حتى تتحقق دقة المعلومات بشكل كامل.
من جانبها، أوضحت مالوري ديليون، ممثلة جوجل، أن هذه الحالات كانت جزءًا من "تجربة صغيرة في واجهة المستخدم لمجموعة فرعية من مستخدمي Discover". وأضافت: "نختبر تصميمًا جديدًا يُغير موضع العناوين الحالية لتسهيل استيعاب تفاصيل الموضوع قبل استكشاف الروابط من جميع أنحاء الويب".
وعلى الرغم من أن التجربة تبدو غير ضارة من الناحية النظرية، إلا أن جوجل لديها تاريخ طويل من التوتر مع الناشرين الإلكترونيين، حيث سعت الشركات الإعلامية مرارًا للحصول على تعويضات مقابل استخدام محتواها، وفي بعض الحالات قامت جوجل بحذف تلك المصادر من نتائج البحث، ثم بررت ذلك بأنها لا تضيف الكثير إلى أرباحها الإعلانية.
في الوقت نفسه، توسّع جوجل تجربة الذكاء الاصطناعي عبر وضع AI Mode، وهو روبوت دردشة وصفه تحالف وسائل الإعلام الإخبارية بأنه "سرقة" صريحة للمحتوى. نشر روبي ستاين، نائب رئيس المنتجات في بحث جوجل، على منصة X أن الشركة تختبر دمج وضع الذكاء الاصطناعي بشكل أكثر تكاملاً مع البحث على الأجهزة المحمولة، بحيث يظهر على نفس شاشة "نظرة عامة على الذكاء الاصطناعي" بدلاً من وجود خدمتين منفصلتين في علامات تبويب مختلفة.
هذه الخطوة قد تجعل تجربة البحث أكثر تكاملاً، لكنها أيضًا ترفع التساؤلات حول دقة وموثوقية المعلومات المعروضة للمستخدمين، خصوصًا إذا اعتمدت على الذكاء الاصطناعي في إعادة صياغة الأخبار والمُلخصات.
تظهر هذه التحركات أن جوجل تسعى إلى دمج الذكاء الاصطناعي بشكل أعمق في تجربة المستخدم، لكن التحدي الأكبر يتمثل في ضمان دقة المعلومات والحفاظ على مصداقية المصادر. وبينما يرحب بعض المستخدمين بميزات الذكاء الاصطناعي التي توفر ملخصات سريعة وتسهّل الوصول إلى المعلومات، يحذر خبراء الإعلام من المخاطر المحتملة لتضليل القراء ونشر معلومات غير دقيقة قد تؤثر على الفهم العام للأخبار.
مع استمرار التجارب، يظل السؤال قائمًا: هل سيصبح الذكاء الاصطناعي في Discover أداة لتعزيز المعلومات، أم أنه سيزيد من ضبابية المحتوى ويضع جوجل في مواجهة جديدة مع الناشرين ومستخدمي الأخبار حول العالم؟