يعتقد رئيس شركة أوبن أيه.آي الأمريكية المطورة لمنصة محادثة الذكاء الاصطناعي شات جي.بي.تي أن المحتوى المصنوع باستخدام تقنيات الذكاء الاصطناعي في المستقبل سيزيد على المحتوي الذي ينتجه البشر.

وقال سام ألتمان رئيس الشركة في مؤتمر نظمته شركة الرقائق الإلكترونية الأمريكية العملاقة إنتل إنه على المجتمعات الاستعداد لمواجهة العواقب السلبية لانتشار الذكاء الاصطناعي قبل أن يحدث هذا.


ويتوقع ألتمان ظهور التأثيرات السلبية للذكاء الاصطناعي على الانتخابات في المستقبل القريب.

وتأتي تصريحاته في الوقت الذي ظهر فيه استخدام لقطات فيديو مختلقة باستخدام ما يعرف باسم التزييف العميق في الانتخابات الهندية التي ستجري في وقت لاحق من العام الحالي.
وأضاف أنه يجب التعامل بجدية مع المخاطر المرتبطة باستخدام الذكاء الاصطناعي في الحروب السيبرانية والأسلحة البيولوجية.
وقال إن الذكاء الاصطناعي لن يكون قصة جميلة وفقط وإنما سيكون قصة مزاياها أكثر من عيوبها.


وبمساعدة الذكاء الاصطناعي يمكن تسريع وتيرة البحث العلمي والشفاء من الأمراض وتحسين التعليم، بحسب ألتمان، مضيفاً أنه من الصعب الآن تصور مدى التحسن الذي يمكن أن يشهده المستقبل بفضل التكنولوجيا الجديدة.
 وفي الوقت نفسه يجب وجود دور تنظيمي قوي للدولة في التقنيات الجديدة وبخاصة الآن حيث مازالت نماذج الذكاء الاصطناعي ضعيفة نسبيا.


وقال ألتمان إنه لا يجب أن تقوم شركة مثل أوبن أيه.آي  بتطوير ذكاء اصطناعي أذكى من البشر بشكل سري ثم تطلقه على العالم، يجب أن يحصل المجتمع ومؤسساته على الوقت لكي يتم التكيف تدريجياً مع التطورات.
يذكر أن منصة شات جي.بي.تي التي تم إطلاقها في العام الماضي وأثارت حماساً قوياً بشأن الذكاء الاصطناعي، تعتمد على استخدام كميات ضخمة من المعلومات لتدريبها، ويمكنها كتابة نصوص  بمستوى لغوي قريب من الكتابات البشرية، وكذلك كتابة أكواد البرامج وتلخيص المعلومات.

المصدر: أخبارنا

كلمات دلالية: الذکاء الاصطناعی

إقرأ أيضاً:

كشف دليل داعش السري: كيف يستخدم التنظيم الذكاء الاصطناعي؟

تمكنت الجماعات الإرهابية في العالم من استغلال تقنيات الذكاء الاصطناعي بشكل مستمر ومتصل لتعزيز عملياتها، بدءا من استخدام العملات الرقمية لنقل الأموال وحتى استخدام الطباعة ثلاثية الأبعاد لصناعة الأسلحة، ولكن وفق التقرير الذي نشره موقع "غارديان" فإن الإرهابيين بدأوا في استخدام تقنيات الذكاء الاصطناعي.

ويشير التقرير إلى أن الإرهابيين بدأوا في الوقت الحالي باستغلال الذكاء الاصطناعي للتخطيط لهجماتهم وعملياتهم المختلفة، وفق تصريحات هيئات مكافحة الإرهاب بحكومة الولايات المتحدة، ولكن ما مدى هذا الاستخدام؟

الدعاية بالذكاء الاصطناعي

تعتمد الجهات الإرهابية بشكل كبير على جذب المتطوعين من مختلف بقاع الأرض والترويج لأعمالهم باستعراضها، وبينما كان الأمر يحتاج إلى مجهود كبير لالتقاط الصور والمقاطع وتجهيز الدعاية المباشرة لهذه العمليات، إلا أن الأمر اختلف بعد انتشار تقنيات الذكاء الاصطناعي.

ويؤكد تقرير "غارديان" أن الإرهابيين يعتمدون على "شات جي بي تي" لتعزيز نشاطهم الدعائي وجذب المزيد من المتطوعين إلى صفوفهم، إذ يعتمدون على النموذج لتوليد الصور والنصوص التي تستخدم في الدعاية بلغات ولهجات مختلفة.

كما يستطيع النموذج تعديل الرسالة الموجودة في وسائل الدعاية المختلفة لتمتلك أثرا مختلفا على كل شخص أو تحقق هدفا مختلفا، وذلك في ثوان معدودة ودون الحاجة إلى وجود صناع إعلانات محترفين.

ولا يقتصر الأمر على "شات جي بي تي" فقط، إذ امتد استخدامهم إلى بعض الأدوات التي تحول النصوص إلى مقاطع صوتية ومقاطع فيديو، وذلك من أجل تحويل رسائل الدعاية النصية التي يقدمونها إلى مقاطع صوتية وفيديو سهلة الانتشار.

ويشير تقرير "غارديان" إلى أن "داعش" تمتلك دليلا خاصا لاستخدام أدوات الذكاء الاصطناعي ومخاطره وتوزعه مباشرة على أعضائها والمهتمين بالانضمام إليها.

إعلان التوسع في استخدام الذكاء الاصطناعي

ويذكر التقرير أيضا غرف دردشة تعود ملكيتها لجهات إرهابية، يتحدث فيها المستخدمون عن أدوات الذكاء الاصطناعي، وكيف يمكن استغلالها لتعزيز أنشطتهم واختصار الأوقات والجهود المبذولة في الجوانب المختلفة.

وبينما صممت تقنيات الذكاء الاصطناعي لمساعدة المستخدمين وتسهيل حياتهم، فإن هذا الأمر لم يغب عن أفراد الجهات الإرهابية الذين بدأوا في استخدام روبوتات الدردشة عبر الذكاء الاصطناعي كمساعد شخصي أو مساعد باحث.

دليل استخدام الذكاء الاصطناعي الخاص بداعش يوجه أعضاءها إلى استخدام الذكاء الاصطناعي كمساعد شخصي (شترستوك)

ويظهر هذا الاستخدام بوضوح في دليل داعش لاستخدام الذكاء الاصطناعي، حيث يذكر الدليل بوضوح، أن هذه التقنية يمكنها تحديد النتيجة المستقبلية للحرب وكيف تحولت إلى سلاح محوري في الحروب المستقبلية.

ويذكر التقرير أيضا استخدام الذكاء الاصطناعي في الأبحاث السريعة والمباشرة من أجل وضع المخططات والبحث بدلا من الحاجة إلى جمع المعلومات يدويًا في الميدان، إذ تستطيع التقنية الآن تسريع هذه العملية وإيصالها إلى نتائج غير مسبوقة.

التغلب على القيود

تضع شركات الذكاء الاصطناعي على غرار "أوبن إيه آي" مجموعة من القيود على نماذجها، حتى لا تساعد هذه النماذج في بناء الأسلحة المتفجرة أو الأسلحة البيولوجية وغيرها من الأشياء التي يمكن استخدامها استخداما سيئا.

ولكن وفق تقرير "غارديان"، فقد وجدت الجهات الإرهابية آلية للتغلب على هذا الأمر، وبدلا من سؤال نماذج الذكاء الاصطناعي عن آلية صناعة القنابل والأسلحة مباشرة، يمكن تقديم المخططات للنموذج وطلب التحقق من دقتها وسلامتها.

وفضلا عن ذلك، يمكن خداع الذكاء الاصطناعي بعدة طرق لإيهامه، أن هذه المخططات والمعلومات التي يقدمها لن تستخدم استخداما سيئا، وهي الحالات التي حدثت من عدة نماذج مختلفة في السنوات الماضية.

ومع تسابق الشركات على تطوير تقنيات ذكاء اصطناعي أكثر قوة وقدرة على أداء وظائفها بشكل ملائم، تهمل في بعض الأحيان إرشادات السلامة المعمول بها عالميا.

وربما كان ما حدث مع روبوت "غروك" مثالا حيا لذلك، إذ تحول النموذج في ليلة وضحاها إلى أداة لنشر الخطاب المعادي للسامية وخطاب الكراهية عبر تغريدات عامة في منصة "إكس".

مقالات مشابهة

  • دعوة لمقاربة شاملة لتنظيم الذكاء الاصطناعي
  • الجدل الاقتصادي في شأن الذكاء الاصطناعي 1/5
  • الذكاء الاصطناعي يفضّل الاستشهاد بالمحتوى الصحفي
  • فيديو.. مباراة تنس بلا نهاية بين روبوتات غوغل لتدريب الذكاء الاصطناعي
  • البشر يتبنون لغة الذكاء الاصطناعي دون أن يشعروا
  • موقع إسرائيلي: ما الذي يمكن أن يدفع المجتمع الدولي إلى التدخل ووقف الإبادة بغزة؟
  • على إسرائيل إنهاء المهمة.. هل تصريح ترامب يغلق باب التفاوض بشأن غزة؟.. مصادر تجيب لـCNN
  • الذكاء الاصطناعي يساعد على توقع الخصائص الكيميائية
  • أهم ما يميز أداة الذكاء الاصطناعي نوت بوك إل إم من غوغل
  • كشف دليل داعش السري: كيف يستخدم التنظيم الذكاء الاصطناعي؟