هل يؤثر “شات جي بي تي” على نتيجة الانتخابات الأميركية 2024؟
تاريخ النشر: 4th, November 2024 GMT
سرايا - تمكن “شات جي بي تي” ومختلف روبوتات الدردشة المعتمدة على نماذج الذكاء الاصطناعي اللغوية من التغلغل في كافة جوانب الحياة اليومية لمختلف المستخدمين ذوي الخلفيات المتنوعة، وذلك بشكل أسرع من التقنيات الحديثة الأخرى، إذ يملك “شات جي بي تي” تحديدا أسرع معدل نمو في الاستخدام مقارنةً مع “فيسبوك” و”إنستغرام” كمثال.
ورغم الفوائد الجمة التي تقدمها نماذج الذكاء الاصطناعي وفي مقدمتها “شات جي بي تي”، إلا أنها تحمل بداخلها مخاطر تهدد السلام والأمن العام للدول، إما عبر نشر الشائعات الخاطئة من داخل النموذج ذاته، أو استخدامه لتوليد محتوى يروج للشائعات والمعلومات الخاطئة، ومع اقتراب يوم الانتخابات الرئاسية الأميركية 2024، تزداد المخاوف من الاستخدامات السيئة لهذه التقنية.
ولكن هل تملك هذه المخاوف أي أساس من الصحة؟ أم أنها مجرد لحظات تهويل من أشخاص غير خبراء أو مطلعين على التقنية ومدى قدرتها في التأثير على الآراء العامة؟ أم أنها فعلا تمثل خطرا حقيقيا على الانتخابات الرئاسية الأميركية أو أي عملية انتخابية في أي مكان حول العالم؟
تأثير غير مباشر
عند الحديث عن التأثير الذي يمكن أن يمتلكه “شات جي بي تي” ونماذج الدردشة الأخرى يتبادر إلى الذهن محاولة روبوت الدردشة التأثير المباشر في آراء الناخبين، ولكن الحقيقة أن هذا التأثير ليس مباشرا وقد لا يأتي من الروبوت بشكل مباشر.
وذلك بفضل قدرة “شات جي بي تي” وروبوتات الدردشة المماثلة على توليد محتوى سواءً كان نصيا أو مقاطع فيديو أو مقاطع صوتية تحاكي طريقة وأسلوب الحديث المحلي المستخدم في مختلف الدول حول العالم، وهو ما يجعل هذا المحتوى أقرب إلى المحتوى البشري ويمكن تصديقه.
وتعد هذه القدرة هي الخطر الأكبر الذي تمثله روبوتات الدردشة على المستخدمين وآرائهم، وبفضلها اختفت الحاجة إلى وجود أشخاص محليين راغبين ومستعدين لتوليد المحتوى المضلل، وفضلا عن جودة المحتوى الناتج من روبوتات الدردشة هذه، فإن سرعة توليد المحتوى ووفرته تجعله مثاليا للاستخدام مع مختلف المنصات عبر الإنترنت، سواءً كانت محركات بحث مثل “غوغل” أو منصات تواصل اجتماعي على غرار “فيسبوك” و”إنستغرام”.
ولم يغب هذا الاستخدام عن الجهات الخارجية التي وجدت في قدرات “شات جي بي تي” وسيلةً لتوليد محتوى مضلل مُقنع وأقرب إلى المحتوى البشري، لذا قامت مجموعة إيرانية باستخدامه ضمن عملية أطلقت عليها اسم “عاصفة-2035” (Storm-2035) لتوليد محتوى مضلل يستهدف الجاليات اللاتينية في الولايات المتحدة طمعا في التأثير على أصواتهم في الانتخابات.
وأشارت “أوبن إيه آي” إلى هذه العملية في بيان رسمي عبر موقعها، ومن خلال هذا البيان كشفت عن آلية استخدام “شات جي بي تي” في العملية، إذ كان الروبوت يولد المحتوى المضلل بناءً على المعلومات المضللة التي يتم تزويده بها، ثم يتم تخصيص المحتوى وتحسينه عبر الروبوت بشكل يجعله يقترب من المحتوى البشري قبل أن يتم نشره عبر منصات التواصل الاجتماعي المختلفة.
ووفق تقرير الشركة، فإن الحسابات التي كانت مشتركة في هذه العملية تم حظر وصولها إلى “شات جي بي تي” فضلا عن أن المحتوى المولد عبره لم يحظَ بالانتشار الذي يجعله يهدد أمن وسلامة المستخدمين بشكل مباشر، لذا فإن آثارها لم تكن واسعة بحسب وصف الشركة، ولكن بالطبع لا يمكن التأكد من أن جميع الحسابات المشاركة في هذه العملية أو التي نشرت المحتوى تم حظرها، وذلك لأن الحسابات التي ستتمكن من الاختفاء عن أعين الرقابة ستكون قادرة على توليد محتوى ذي جودة أكبر وقابلية انتشار أعلى.
حقبة تخصيص المحتوى المضلل
في العادة، يتم توليد المحتوى المضلل ليخاطب أكبر عدد ممكن من الأفراد فضلا عن صعوبة تخصيص المحتوى ليناسب الثقافة المحلية من قبل أشخاص خارج هذه الثقافة، ولكن “شات جي بي تي” يحل هذه المشكلة بشكل بسيط وسريع للغاية.
يستطيع النموذج تحويل المعلومات المضللة المقدمة إليه لتصبح مناسبة لفئات معينة ومختلفة من الشعب المستهدف، وربما كانت عملية “عاصفة-2035” مثالا حيا على ذلك، إذ تمكن النموذج من تخصيص المعلومات المضللة لتناسب الجالية اللاتينية أو ذات الأصول اللاتينية.
ويمكن توسيع رقعة الاستهداف الخاصة بالمحتوى المضلل أو تضييقها بحسب ما تقتضي الحاجة لهذا المحتوى، فيمكن عبر “شات جي بي تي” صناعة محتوى يستهدف السيدات اللاتي يبلغ من العمر 50 عاما أو أكبر ويعشن في ولايات جنوب أميركا ولا يعملن ويحببن مشاهدة الأعمال الدرامية التي تتحدث عن المؤامرات، وفي هذه الحال يكون صدى المحتوى المولد أكبر من المحتوى العشوائي.
أداة جمع بيانات وتخصيص إعلانات أكثر قوة
في مارس/آذار 2018 ظهرت فضيحة شركة “كامبريدج أناليتيكا” (Cambridge Analytica) التي اعتمدت عليها حملة الرئيس الأميركي آنذاك دونالد ترامب من أجل توجيه الإعلانات وتخصيصها بشكل يجعلها أكثر تناسبا لفئة معينة من الشعب بناء على تفضيلاتهم وبياناتهم على منصات التواصل الاجتماعي.
وبينما كانت المشكلة في تلك الفضيحة هي آلية وصول الشركة إلى البيانات من شركة “ميتا” وغيرها، إلا أن وجود البيانات في حد ذاته لم يكن جزءا من الفضيحة، وبفضل قدرات الذكاء الاصطناعي على قراءة وفحص العديد من الصفحات والنصوص والحسابات عبر الإنترنت، فإنه يصبح قادرا على تقديم مثل هذه البيانات بشكل سريع وفوري.
وتتسع رقعة الخطر أيضا حين استخدام نماذج الذكاء الاصطناعي للتنبؤ بنتائج الانتخابات، وهو الأمر الذي أشارت إليه ورقة بحثية نشرت في “جامعة كورنيل” (Cornell University) وشارك فيها خبراء من “غوغل” ومعهد “إم آي تي” وجامعة “هارفارد”.
وبحسب ما جاء في البحث، فإن هذه القدرة التي يتمتع بها الذكاء الاصطناعي تتيح للشركات والجهات الخارجية أو الداخلية توقع نتيجة الانتخابات بشكل أقرب للصواب ثم بناء إستراتيجيات وتصميم حملات تهدف للتأثير في هذه النتيجة بناءً على البيانات الواردة من الذكاء الاصطناعي، ليصبح بذلك الذكاء الاصطناعي مؤثرا في نتائج الانتخابات بشكل غير مباشر.
بناء روبوتات دردشة مضللة
رغم خطورة الاحتمالات السابقة، إلا أنها تناقش فقط استخدام نماذج الذكاء الاصطناعي لتوليد محتوى مضلل قادر على التأثير في الانتخابات، ولكن هناك آلية أكثر خطورة تجعل تهديد وخطر الذكاء الاصطناعي أكثر شراسة.
وتعتمد هذه الآلية على اختراق روبوتات الدردشة الموجودة في الوقت الحالي بمختلف أنواعها، ثم تزويدها ببيانات خاطئة تماما ليقوم الروبوت لاحقا بنشر هذه البيانات بين مستخدميه والإجابة عن الأسئلة التي يمتلكونها.
وإن كان اختراق “شات جي بي تي” أو “جيميناي” أمرا صعبا، فإن الجهات الخارجية أو الداخلية قد تسعى إلى بناء روبوت دردشة من الصفر والترويج له قبل الانتخابات بوقت كافٍ ليستطيع نشر المعلومات والبيانات المضللة عن الحملات الانتخابية بين المستخدمين.
وبينما يعد هذا السيناريو مستبعدا في الوقت الحالي، إلا أن التخطيط المناسب والاستعداد قبل الانتخابات بوقت كاف يجعله أقرب إلى التصديق، وهو سيناريو أكثر خطورة من مجرد توليد المحتوى المضلل عبر روبوتات الدردشة ونشره في منصات التواصل الاجتماعي.
المصدر: وكالة أنباء سرايا الإخبارية
كلمات دلالية: نماذج الذکاء الاصطناعی روبوتات الدردشة تولید المحتوى شات جی بی تی إلا أن فی هذه
إقرأ أيضاً:
فيديو.. مباراة تنس بلا نهاية بين روبوتات غوغل لتدريب الذكاء الاصطناعي
في صيف 2010، خاض لاعبا التنس جون إيسنر ونيكولا ماهو واحدة من أكثر المواجهات استنزافًا في تاريخ ويمبلدون، فقد استمرت المباراة 11 ساعة على مدار 3 أيام. وبعد أكثر من عقد، يخوض خصمان من نوع آخر مباراة لا تقل عنادًا، لكن هذه المرة داخل مختبرات ديب مايند التابعة لغوغل، وبلا جمهور.
فبحسب تقرير لموقع بوبيلار سينس (Popular Science)، تتحرك ذراعان روبوتيتان في مباراة تنس طاولة بلا نهاية في مركز الأبحاث جنوب لندن، ضمن مشروع أطلقته ديب مايند عام 2022 لتطوير قدرات الذكاء الاصطناعي عبر التنافس الذاتي المستمر. الهدف لا يقتصر على تحسين مهارات اللعب، بل يتعداه إلى تدريب خوارزميات قادرة على التكيف مع بيئات معقدة، مثل تلك التي تواجهها الروبوتات في المصانع أو المنازل.
من مناوشة بلا فائز إلى تدريب بلا توقففي بدايات المشروع، اقتصر التمرين على ضربات تبادلية بسيطة بين الروبوتين، من دون سعي لتحقيق نقاط. ومع الوقت، وباستخدام تقنيات التعلم المعزز، أصبح كل روبوت يتعلم من خصمه ويطوّر إستراتيجياته.
وعندما أُضيف هدف الفوز بالنقطة، واجه النظام صعوبة في التكيف، إذ كانت الذراعان تفقدان بعض الحركات التي أتقنتاها سابقًا. لكن عند مواجهة لاعبين بشريين، بدأت تظهر بوادر تقدم لافت، بفضل تنوع أساليب اللعب التي وفّرت فرص تعلم أوسع.
ووفق الباحثين، فازت الروبوتات بنسبة 45% من أصل 29 مباراة ضد بشر، وتفوقت على لاعبين متوسطين بنسبة بلغت 55%. فالأداء الإجمالي يُصنّف في مستوى لاعب هاوٍ، لكنه يزداد تعقيدًا مع الوقت، خصوصًا مع إدخال تقنيات جديدة لمراقبة الأداء وتحسينه.
عندما يعلّم الفيديو الذكاء الاصطناعيالتحسينات لم تتوقف على التمرين الفعلي، إذ استخدم الباحثون نموذج جيمناي (Gemini) للرؤية واللغة من غوغل لتوليد ملاحظات من مقاطع الفيديو الخاصة بالمباريات.
ويمكن للروبوت الآن تعديل سلوكه بناء على أوامر نصيّة، مثل "اضرب الكرة إلى أقصى اليمين" أو "قرّب الشبكة". هذه التغذية الراجعة البصرية اللغوية تعزز قدرات الروبوت على اتخاذ قرارات دقيقة خلال اللعب.
إعلان تنس الطاولة بوابة لروبوتات المستقبلتُعد لعبة تنس الطاولة بيئة مثالية لاختبار الذكاء الاصطناعي، لما فيها من توازن بين السرعة والدقة واتخاذ القرار. وهي تتيح تدريب الروبوتات على مهارات تتجاوز مجرد الحركة، لتشمل التحليل والاستجابة في الوقت الحقيقي، وهي مهارات ضرورية للروبوتات المستقبلية في البيئات الواقعية.
ورغم أن الروبوتات المتقدمة ما زالت تتعثر في مهام بسيطة بالنسبة للبشر، مثل ربط الحذاء أو الكتابة، فإن التطورات الأخيرة -كنجاح ديب مايند في تعليم روبوت ربط الحذاء، أو نموذج "أطلس" الجديد الذي قدّمته بوسطن ديناميكس- تشير إلى تقارب تدريجي بين أداء الآلة والإنسان.
نحو ذكاء عام قابل للتكيفيرى خبراء ديب مايند أن هذا النهج في التعلم، القائم على المنافسة والتحسين الذاتي، قد يكون المفتاح لتطوير ذكاء اصطناعي عام متعدد الاستخدامات. والهدف النهائي هو تمكين الروبوتات من أداء مهام متنوعة، ليس فقط في بيئات صناعية بل أيضًا في الحياة اليومية، بأسلوب طبيعي وآمن.
حتى ذلك الحين، ستبقى ذراعا ديب مايند في مباراة مفتوحة، تتبادلان الكرات والمهارات، في طريق طويل نحو مستقبل روبوتي أكثر ذكاء ومرونة.