أدوات الذكاء الاصطناعي قد تتمكن قريبا من التلاعب بقرارات الأشخاص
تاريخ النشر: 31st, December 2024 GMT
نشرت صحيفة "الغارديان" تقريرًا للكاتب "دان ميلمو" استعرض فيها دراسة جديدة لباحثين في جامعة كامبريدج، أفادوا أن أدوات الذكاء الاصطناعي قد تستخدم للتلاعب بالجماهير عبر الإنترنت لدفعهم لاتخاذ القرارات، تتراوح من ما يجب شراؤه إلى من يجب التصويت له.
وأوضحت الصحيفة أن البحث سلط الضوء على سوق جديدة ناشئة لـ "إشارات النوايا الرقمية" المعروفة بـ "اقتصاد النوايا"، حيث يقوم مساعدو الذكاء الاصطناعي بفهم نوايا البشر والتنبؤ بها والتلاعب بها وبيع تلك المعلومات للشركات التي يمكنها الاستفادة منها.
وقال الكاتب إن الباحثين في مركز ليفرهولم لمستقبل الذكاء الاصطناعي في جامعة كامبريدج يروجون لاقتصاد النوايا باعتباره خليفة لاقتصاد الاهتمام، حيث تبقي الشبكات الاجتماعية المستخدمين مرتبطين بمنصاتها وتعرض لهم الإعلانات.
وأفاد الكاتب أن اقتصاد النوايا يشمل الشركات التقنية المتخصصة في الذكاء الاصطناعي التي تبيع ما تعرفه عن دوافعك، بدءًا من خططك للإقامة في فندق وصولًا إلى آرائك حول مرشح سياسي.
ونقل الكاتب عن الدكتور جونّي بن، المؤرخ التكنولوجي في مركز ليفرهولم لمستقبل الذكاء: "على مدى عقود، كانت الاهتمامات هي العملة على الإنترنت. فمشاركة اهتماماتك مع منصات وسائل التواصل الاجتماعي مثل "فيسبوك" و"إنستغرام" كانت هي من يقود الاقتصاد الرقمي."
إعلانوأضاف جوني: "إلا إذا تم تنظيمها، فإن اقتصاد النوايا سيعتبر دوافعك العملة الجديدة. سيكون هناك سباق محموم للذهب لأولئك الذين يستهدفون النوايا البشرية ويوجهونها ويبيعونها."
وقال: "يجب أن نبدأ في التفكير في التأثير المحتمل الذي قد يحدثه هذا السوق على تطلعات البشر، بما في ذلك الانتخابات الحرة والنزيهة، وحرية الصحافة، والمنافسة العادلة في السوق، قبل أن نصبح ضحايا لعواقبه غير المقصودة."
وأشار الكاتب إلى أن الدراسة تزعم أن النماذج اللغوية الكبيرة، وهي التكنولوجيا التي تدعم أدوات الذكاء الاصطناعي مثل روبوت الدردشة "شات جي بي تي"، ستُستخدم لـ"توقع وتوجيه" المستخدمين استنادًا إلى "البيانات المقصودة والسلوكية والنفسية".
وتقترح الدراسة أنه في "اقتصاد النوايا"، يمكن لنموذج اللغة الكبير أن يستخدم، بتكلفة منخفضة، خصائص مثل وتيرة المستخدم وتوجهاته السياسية ومفرداته وعمره وجنسه وتفضيلاته، لزيادة احتمالية تحقيق هدف معين (مثل بيع تذكرة فيلم). وسيتمكن المعلنون من استخدام أدوات الذكاء الاصطناعي بتوجيه المحادثات لخدمة المعلنين والشركات.
المصدر: الجزيرة
كلمات دلالية: حريات أدوات الذکاء الاصطناعی
إقرأ أيضاً:
خبراء يكشفون خطر الذكاء الاصطناعي على الدماغ
#سواليف
كشفت دراسة حديثة عن #مخاطر محتملة لبرامج الدردشة المدعومة بالذكاء الاصطناعي مثل ChatGPT، حيث قد تشكل تهديدا غير متوقع للصحة العقلية لبعض المستخدمين.
ورصدت الدراسة التي أجراها باحثون من جامعة كينغز كوليدج لندن، ظاهرة جديدة أطلقوا عليها اسم ” #ذهان_الشات_بوت”، حيث قد تساهم هذه التقنية في “طمس حدود الواقع” لدى المستخدمين المعرضين للخطر وتؤدي إلى “ظهور أو تفاقم أعراض ذهانية.
وببساطة، قد يبدأ البعض، خاصة المعرضين نفسيا، في فقدان القدرة على التمييز بين الواقع والمحادثات مع #الذكاء_الاصطناعي بعد استخدام مكثف لهذه البرامج.
مقالات ذات صلةويوضح الدكتور هاميلتون مورين، أحد المشاركين في الدراسة: “نحن لا نتحدث عن خيال علمي هنا. هذه حالات حقيقية يبدأ فيها المستخدمون بتطوير معتقدات وأفكار غير منطقية متأثرة بتفاعلاتهم مع #الذكاء_الاصطناعي”.
وتكمن المشكلة في أن هذه البرامج مصممة لتكون ودودة، متعاطفة، وتجيب على كل الأسئلة بثقة عالية. وهذه الميزات التي تبدو إيجابية، قد تكون خادعة للأشخاص الذين يعانون أساسا من هشاشة نفسية أو استعداد للاضطرابات الذهانية.
ويشير البروفيسور توم بولاك، أحد معدي الدراسة، إلى أن “الذهان لا يظهر فجأة، لكن الذكاء الاصطناعي قد يكون العامل الذي يدفع الشخص الهش نفسيا نحو الحافة”.
في تعليق سابق خلال بودكاست في مايو الماضي، اعترف سام ألتمان، الرئيس التنفيذي لشركة OpenAI، بأن الشركة تواجه صعوبات في وضع ضوابط أمان فعالة لحماية المستخدمين المعرضين للخطر، قائلا: “لم نكتشف بعد كيفية إيصال التحذيرات للمستخدمين الذين يكونون في حالة عقلية هشة وعلى وشك الانهيار الذهاني”.
وفي الوقت الحالي، ينصح الخبراء باستخدام هذه الأدوات بحذر، خاصة من لديهم تاريخ مع الاضطرابات النفسية، مع التأكيد على أن الغالبية العظمى من المستخدمين لا يواجهون مثل هذه المخاطر. لكن الرسالة واضحة: الذكاء الاصطناعي، مثل أي تقنية قوية، يحتاج إلى فهم دقيق لآثاره الجانبية قبل أن يصبح أكثر تعمقا في حياتنا.