تحدث الكاتب والمخرج أحمد عبدالعليم مؤسس مبادرة ستاند باي Ai عن تجربة الذكاء الاصطناعي في السينما، وردا على تساؤلات «هل من الممكن استبدال صناع السينما به؟».
 

500 مليون دولار استثمارات.. كل ما تريد معرفته عن محطة أبيدوس للطاقة الشمسية|فيديوأسعار الذهب اليوم الإثنين في مصرمبادرة ستاند باي AI

قال الكاتب والمخرج أحمد عبدالعليم مؤسس مبادرة ستاند باي Ai في لقائه مع الإعلامية رشا مجدي والإعلامية عبيدة أمير، ببرنامج صباح البلد المذاع على قناة صدى البلد: «أول ما ظهرت فكرة الذكاء الاصطناعي أسست مبادرة ستاند باي Ai للتواصل مع جيل GEN Z ثم جربت بصورة لي وأصدر لي صورة بملامح أصغر سنًا ثم أضفت عليه كلام بصوتي وبعدها أصدرت بودكاست بنفس الشخصية عن طريق الذكاء الاصطناعي».

وتابع: «من مخاطر الذكاء الاصطناعي أن سلطة الخوارزميات طغت على سلطة الصحافة حاليًا».
 

وفيما يخص تأثير الذكاء الاصطناعي على السينما، علق المخرج أحمد عبدالعليم قائلًا: «مبادرة ستاند باي AI اتعملت من 7 سنوات لطلبة الإعلام والسينما وأقمنا ندوات وشخصيات حقيقية بالـ AI لتقديمها».
 

واستكمل: «من أخلاقيات الذكاء الاصطناعي يجب الحصول على موافقة الشخصيات العامة والفنانين قبل استخدام صورتهم أو صوتهم في أي عمل يعتمد على الـ AI».
 

واختتم الكاتب والمخرج أحمد عبدالعليم: «هناك بعض الأشخاص استخدموا الذكاء الاصطناعي في صناعة الأفلام ولكن ظهرت في النهاية تشبه أفلام الأنيميشن ولكن حاليًا هناك تطور باستخدام الشخصيات ولكن الاختلاف في الفكر البشري والإفيهات والثقافة والقدرة على الارتجال بسرعة وعمق، ولكن الـ AI به قدرة كبيرة على جمع مليارات المعلومات وقدرة على البحثية بسرعة شديدة».
 

المصدر: صدى البلد

كلمات دلالية: صباح البلد صدى البلد الذكاء الاصطناعي السينما المزيد الذکاء الاصطناعی

إقرأ أيضاً:

كشف دليل داعش السري: كيف يستخدم التنظيم الذكاء الاصطناعي؟

تمكنت الجماعات الإرهابية في العالم من استغلال تقنيات الذكاء الاصطناعي بشكل مستمر ومتصل لتعزيز عملياتها، بدءا من استخدام العملات الرقمية لنقل الأموال وحتى استخدام الطباعة ثلاثية الأبعاد لصناعة الأسلحة، ولكن وفق التقرير الذي نشره موقع "غارديان" فإن الإرهابيين بدأوا في استخدام تقنيات الذكاء الاصطناعي.

ويشير التقرير إلى أن الإرهابيين بدأوا في الوقت الحالي باستغلال الذكاء الاصطناعي للتخطيط لهجماتهم وعملياتهم المختلفة، وفق تصريحات هيئات مكافحة الإرهاب بحكومة الولايات المتحدة، ولكن ما مدى هذا الاستخدام؟

الدعاية بالذكاء الاصطناعي

تعتمد الجهات الإرهابية بشكل كبير على جذب المتطوعين من مختلف بقاع الأرض والترويج لأعمالهم باستعراضها، وبينما كان الأمر يحتاج إلى مجهود كبير لالتقاط الصور والمقاطع وتجهيز الدعاية المباشرة لهذه العمليات، إلا أن الأمر اختلف بعد انتشار تقنيات الذكاء الاصطناعي.

ويؤكد تقرير "غارديان" أن الإرهابيين يعتمدون على "شات جي بي تي" لتعزيز نشاطهم الدعائي وجذب المزيد من المتطوعين إلى صفوفهم، إذ يعتمدون على النموذج لتوليد الصور والنصوص التي تستخدم في الدعاية بلغات ولهجات مختلفة.

كما يستطيع النموذج تعديل الرسالة الموجودة في وسائل الدعاية المختلفة لتمتلك أثرا مختلفا على كل شخص أو تحقق هدفا مختلفا، وذلك في ثوان معدودة ودون الحاجة إلى وجود صناع إعلانات محترفين.

ولا يقتصر الأمر على "شات جي بي تي" فقط، إذ امتد استخدامهم إلى بعض الأدوات التي تحول النصوص إلى مقاطع صوتية ومقاطع فيديو، وذلك من أجل تحويل رسائل الدعاية النصية التي يقدمونها إلى مقاطع صوتية وفيديو سهلة الانتشار.

ويشير تقرير "غارديان" إلى أن "داعش" تمتلك دليلا خاصا لاستخدام أدوات الذكاء الاصطناعي ومخاطره وتوزعه مباشرة على أعضائها والمهتمين بالانضمام إليها.

إعلان التوسع في استخدام الذكاء الاصطناعي

ويذكر التقرير أيضا غرف دردشة تعود ملكيتها لجهات إرهابية، يتحدث فيها المستخدمون عن أدوات الذكاء الاصطناعي، وكيف يمكن استغلالها لتعزيز أنشطتهم واختصار الأوقات والجهود المبذولة في الجوانب المختلفة.

وبينما صممت تقنيات الذكاء الاصطناعي لمساعدة المستخدمين وتسهيل حياتهم، فإن هذا الأمر لم يغب عن أفراد الجهات الإرهابية الذين بدأوا في استخدام روبوتات الدردشة عبر الذكاء الاصطناعي كمساعد شخصي أو مساعد باحث.

دليل استخدام الذكاء الاصطناعي الخاص بداعش يوجه أعضاءها إلى استخدام الذكاء الاصطناعي كمساعد شخصي (شترستوك)

ويظهر هذا الاستخدام بوضوح في دليل داعش لاستخدام الذكاء الاصطناعي، حيث يذكر الدليل بوضوح، أن هذه التقنية يمكنها تحديد النتيجة المستقبلية للحرب وكيف تحولت إلى سلاح محوري في الحروب المستقبلية.

ويذكر التقرير أيضا استخدام الذكاء الاصطناعي في الأبحاث السريعة والمباشرة من أجل وضع المخططات والبحث بدلا من الحاجة إلى جمع المعلومات يدويًا في الميدان، إذ تستطيع التقنية الآن تسريع هذه العملية وإيصالها إلى نتائج غير مسبوقة.

التغلب على القيود

تضع شركات الذكاء الاصطناعي على غرار "أوبن إيه آي" مجموعة من القيود على نماذجها، حتى لا تساعد هذه النماذج في بناء الأسلحة المتفجرة أو الأسلحة البيولوجية وغيرها من الأشياء التي يمكن استخدامها استخداما سيئا.

ولكن وفق تقرير "غارديان"، فقد وجدت الجهات الإرهابية آلية للتغلب على هذا الأمر، وبدلا من سؤال نماذج الذكاء الاصطناعي عن آلية صناعة القنابل والأسلحة مباشرة، يمكن تقديم المخططات للنموذج وطلب التحقق من دقتها وسلامتها.

وفضلا عن ذلك، يمكن خداع الذكاء الاصطناعي بعدة طرق لإيهامه، أن هذه المخططات والمعلومات التي يقدمها لن تستخدم استخداما سيئا، وهي الحالات التي حدثت من عدة نماذج مختلفة في السنوات الماضية.

ومع تسابق الشركات على تطوير تقنيات ذكاء اصطناعي أكثر قوة وقدرة على أداء وظائفها بشكل ملائم، تهمل في بعض الأحيان إرشادات السلامة المعمول بها عالميا.

وربما كان ما حدث مع روبوت "غروك" مثالا حيا لذلك، إذ تحول النموذج في ليلة وضحاها إلى أداة لنشر الخطاب المعادي للسامية وخطاب الكراهية عبر تغريدات عامة في منصة "إكس".

مقالات مشابهة

  • الجدل الاقتصادي في شأن الذكاء الاصطناعي 1/5
  • أحمد حسن يكشف مفاجأة بشأن بيع كوكا.. تفاصيل
  • الذكاء الاصطناعي يفضّل الاستشهاد بالمحتوى الصحفي
  • فيديو.. مباراة تنس بلا نهاية بين روبوتات غوغل لتدريب الذكاء الاصطناعي
  • البشر يتبنون لغة الذكاء الاصطناعي دون أن يشعروا
  • الذكاء الاصطناعي يساعد على توقع الخصائص الكيميائية
  • أهم ما يميز أداة الذكاء الاصطناعي نوت بوك إل إم من غوغل
  • كشف دليل داعش السري: كيف يستخدم التنظيم الذكاء الاصطناعي؟
  • غرفة صيدا تحتضن مؤتمر الذكاء الاصطناعي
  • ترامب: يجب عدم تقييد نماذج الذكاء الاصطناعي بقوانين حقوق النشر