د. عبدالله الغذامي يكتب: والصورة أكذب من ألف كلمة
تاريخ النشر: 11th, May 2024 GMT
ظل الإنسان ماهراً في الكذب مهارةً أعلى بكثير من مهاراته في الصدق، لأن الصدق بريءٌ وفطري بينما الكذب يحتاج لتقويته بالمهارات والحيل، وكلما تكشفت حيلة مهر الإنسان في صناعة حيلةٍ أمضى وأمهر، وفي المقابل كان الصوت وكانت الصورة أدوات لتوثيق الصدق، وجاءت المقولة بأن الصورة أبلغ من ألف كلمة، ولكن جاءنا زمن أصبحت الصورة فيه أكذب من ألف كلمة بل من كل الكلمات، وتم أيضاً تزوير الكلمة من حيث هي صوت عبر تقليد الصوت ومحاكاته بما يماثل الأصل، وكذلك تزوير الكلمة المنقوشة والمكتوبة لتصبح تدويناً يفتري حسب غاياته.
وهنا يصح أن نتساءل هل سيأتي يوم نتحدث فيه عن زمن مر كانت الصورة فيه دليلاً موثوقاً وكان الصوت دليلاً موثوقاً، أقول هذا حين أرى كغيري أن الصورة تكذب وأن الصوت يكذب، وهذا ما يفعله (الذكاء الاصطناعي)، حيث يجري تزوير الصور وتزوير الأصوات، فقد تسمع مثلاً أغنية لطلال مداح بصوت وصورة لا يختلفان عن صوته وصورته ولكنه ليس هو من غنى حقيقةً ولا هي صورته الحقيقية، والأخطر أن يتضمن النص المغني عبارات لا تصدر عن طلال، رحمه الله، مما يعني تزوير تاريخه وتزوير تاريخ الثقافة والذاكرة، وهذه صيغة مستحدثة لما كان يسمى بالانتحال قديماً، وقد كان الانتحال ممارسةً ثقافية تصنع قصصاً وأشعاراً وتصنع أحداثاً لم تقع، بل بلغ الأمر رواية أحاديث تنسب للرسول عليه الصلاة والسلام، وهي كذب محض ولم يتورع فاعلوها عن فعلها، كما مورس الانتحال في زمن التدوين المبكر في العصر العباسي، حيث وضعت قصائد وقصص عن زمن الجاهلية من باب تأمين مادة للمدونين والتربح بالروايات، وهي ممارسة بشرية قديمة وفي كل الثقافات، وتمكن الإنسان الحديث من تطوير مهارة الانتحال عبر الذكاء الاصطناعي، وهي لهذا ليست بدعةً ابتدعها الذكاء الاصطناعي إنما هي رغبةٌ ثقافية إنسانية طرب لها الإنسان من قبل وكسب منها مالاً وشهرة، وحقق فيها مكاسبَ شريرة في تزوير شخصيات وثقافات وتزوير التاريخ، وبها تمت مهارات اللغة والذكاء لتحقيق مختلف مبتغيات الإنسان الحسن منها والقبيح، ولكن أدوات الشر تتطور تماماً مثلما تتطور أدوات الخير سواءً بسواء، فالإنسان يخترع الأدوية مثلما يخترع السموم، وبيده نشر الشر كما ينشر الخير، والضحية دوماً هو إنسان آخر يقع في شراك إنسان مزور، وهذا هو الذي يفسد في الأرض كما يصلحها ويقتل بمثل ما ينقذ حياة مريض أو ينقذ غريقاً، وليس الذكاء الاصطناعي ببدعة جديدة ولا هو خطر جديد، لأنه مجرد تطوير بشري لأدوات الخير وأدوات الشر، تلك الأدوات التي تترجم تاريخ البشرية كله مذ زمن قابيل وهابيل وإلى اليوم وغداً، وإن شاع اليوم التخويف من الذكاء الاصطناعي فالأولى أن يكون التخويف من الإنسان مبتكر الحيل ومبتكر فكرة الانتحال والتزوير، وهو وحده من علم الذكاء الاصطناعي كيف يكذب وكيف يزور، وهذا تلميذ ذاك الذي علمه السحر وعلمه الحيل وصممه لكي ينوب عن الذكاء البشري ويفعل ما كان يفعله البشر ولكن بطريقة أمهر وأشد فتكاً.
كاتب ومفكر سعودي
أستاذ النقد والنظرية/ جامعة الملك سعود - الرياض أخبار ذات صلة
المصدر: صحيفة الاتحاد
كلمات دلالية: الغذامي عبدالله الغذامي الذکاء الاصطناعی
إقرأ أيضاً:
كشف دليل داعش السري: كيف يستخدم التنظيم الذكاء الاصطناعي؟
تمكنت الجماعات الإرهابية في العالم من استغلال تقنيات الذكاء الاصطناعي بشكل مستمر ومتصل لتعزيز عملياتها، بدءا من استخدام العملات الرقمية لنقل الأموال وحتى استخدام الطباعة ثلاثية الأبعاد لصناعة الأسلحة، ولكن وفق التقرير الذي نشره موقع "غارديان" فإن الإرهابيين بدأوا في استخدام تقنيات الذكاء الاصطناعي.
ويشير التقرير إلى أن الإرهابيين بدأوا في الوقت الحالي باستغلال الذكاء الاصطناعي للتخطيط لهجماتهم وعملياتهم المختلفة، وفق تصريحات هيئات مكافحة الإرهاب بحكومة الولايات المتحدة، ولكن ما مدى هذا الاستخدام؟
الدعاية بالذكاء الاصطناعيتعتمد الجهات الإرهابية بشكل كبير على جذب المتطوعين من مختلف بقاع الأرض والترويج لأعمالهم باستعراضها، وبينما كان الأمر يحتاج إلى مجهود كبير لالتقاط الصور والمقاطع وتجهيز الدعاية المباشرة لهذه العمليات، إلا أن الأمر اختلف بعد انتشار تقنيات الذكاء الاصطناعي.
ويؤكد تقرير "غارديان" أن الإرهابيين يعتمدون على "شات جي بي تي" لتعزيز نشاطهم الدعائي وجذب المزيد من المتطوعين إلى صفوفهم، إذ يعتمدون على النموذج لتوليد الصور والنصوص التي تستخدم في الدعاية بلغات ولهجات مختلفة.
كما يستطيع النموذج تعديل الرسالة الموجودة في وسائل الدعاية المختلفة لتمتلك أثرا مختلفا على كل شخص أو تحقق هدفا مختلفا، وذلك في ثوان معدودة ودون الحاجة إلى وجود صناع إعلانات محترفين.
ولا يقتصر الأمر على "شات جي بي تي" فقط، إذ امتد استخدامهم إلى بعض الأدوات التي تحول النصوص إلى مقاطع صوتية ومقاطع فيديو، وذلك من أجل تحويل رسائل الدعاية النصية التي يقدمونها إلى مقاطع صوتية وفيديو سهلة الانتشار.
ويشير تقرير "غارديان" إلى أن "داعش" تمتلك دليلا خاصا لاستخدام أدوات الذكاء الاصطناعي ومخاطره وتوزعه مباشرة على أعضائها والمهتمين بالانضمام إليها.
إعلان التوسع في استخدام الذكاء الاصطناعيويذكر التقرير أيضا غرف دردشة تعود ملكيتها لجهات إرهابية، يتحدث فيها المستخدمون عن أدوات الذكاء الاصطناعي، وكيف يمكن استغلالها لتعزيز أنشطتهم واختصار الأوقات والجهود المبذولة في الجوانب المختلفة.
وبينما صممت تقنيات الذكاء الاصطناعي لمساعدة المستخدمين وتسهيل حياتهم، فإن هذا الأمر لم يغب عن أفراد الجهات الإرهابية الذين بدأوا في استخدام روبوتات الدردشة عبر الذكاء الاصطناعي كمساعد شخصي أو مساعد باحث.
ويظهر هذا الاستخدام بوضوح في دليل داعش لاستخدام الذكاء الاصطناعي، حيث يذكر الدليل بوضوح، أن هذه التقنية يمكنها تحديد النتيجة المستقبلية للحرب وكيف تحولت إلى سلاح محوري في الحروب المستقبلية.
ويذكر التقرير أيضا استخدام الذكاء الاصطناعي في الأبحاث السريعة والمباشرة من أجل وضع المخططات والبحث بدلا من الحاجة إلى جمع المعلومات يدويًا في الميدان، إذ تستطيع التقنية الآن تسريع هذه العملية وإيصالها إلى نتائج غير مسبوقة.
التغلب على القيودتضع شركات الذكاء الاصطناعي على غرار "أوبن إيه آي" مجموعة من القيود على نماذجها، حتى لا تساعد هذه النماذج في بناء الأسلحة المتفجرة أو الأسلحة البيولوجية وغيرها من الأشياء التي يمكن استخدامها استخداما سيئا.
ولكن وفق تقرير "غارديان"، فقد وجدت الجهات الإرهابية آلية للتغلب على هذا الأمر، وبدلا من سؤال نماذج الذكاء الاصطناعي عن آلية صناعة القنابل والأسلحة مباشرة، يمكن تقديم المخططات للنموذج وطلب التحقق من دقتها وسلامتها.
وفضلا عن ذلك، يمكن خداع الذكاء الاصطناعي بعدة طرق لإيهامه، أن هذه المخططات والمعلومات التي يقدمها لن تستخدم استخداما سيئا، وهي الحالات التي حدثت من عدة نماذج مختلفة في السنوات الماضية.
ومع تسابق الشركات على تطوير تقنيات ذكاء اصطناعي أكثر قوة وقدرة على أداء وظائفها بشكل ملائم، تهمل في بعض الأحيان إرشادات السلامة المعمول بها عالميا.
وربما كان ما حدث مع روبوت "غروك" مثالا حيا لذلك، إذ تحول النموذج في ليلة وضحاها إلى أداة لنشر الخطاب المعادي للسامية وخطاب الكراهية عبر تغريدات عامة في منصة "إكس".