ذكي لكنه ساذج.. ما هي مخاطر الذكاء الاصطناعي على البزنس؟
تاريخ النشر: 14th, August 2023 GMT
ساعد التقدم في مجال الذكاء الاصطناعي الأعمال التجارية في تحسين عملياتها، مما ساهم في رفع الإنتاجية وبالتالي زيادة الأرباح.
لكن هذه التقنية الثورية التي تحظى باستثمارات ضخمة من عدة شركات في وادي السيلكون بولاية كاليفورنيا الأميركية، لا تزال تشكل خطرا على المؤسسات الربحية.
ومن بين الفوائد العظيمة لاستخدام تلك التقنية والمخاطر المترتبة عليها، يصف كبير مهندسي الأمن في "سينوبسيس سوفتوير إنتيغريتي غروب"، بوريس سيبوت، التقنية بأنها "ذكية لكنها ساذجة".
وقال في حديث لموقع "ذا سايبر إكسبريس" المتخصص في الأمن السيبراني، إن ذلك "سيكون وصفا عادلا للذكاء الاصطناعي الذي نراه اليوم".
من السمعة إلى الدعاوى القضائيةوبعيدا عن خطورة القضاء على ملايين الوظائف، أعرب خبير تقنية المعلومات، أيمن عيتاني، عن اعتقاده بأن هناك مخاطر محتملة على الأعمال التجارية من الذكاء الاصطناعي.
وفي حديثه لموقع "الحرة"، قال عيتاني إن تأثير الذكاء الاصطناعي على الأعمال التجارية "يبدأ من السمعة والخصوصية، وقد يصل للدخول في مشاكل قانونية".
وخلال السنوات الماضية، نما استخدام تقنيات الذكاء الاصطناعي من قبل الشركات في مختلف عملياتها.
وبحسب ورقة بحثية لشركة "آي إم جي"، فإن "أكثر من 35 بالمئة من الشركات تستخدم بالفعل الذكاء الاصطناعي في عملياتها، بينما تستكشف 40 بالمئة من المؤسسات التجارية هذه التقنية بهدف استخدام مستقبلي محتمل لها".
وتستخدم الشركات الذكاء الاصطناعي لأداء مهام، مثل تحليل سلوك المستهلك، وإزالة الأخطاء، وتحسين الإنتاجية، والمزيد من العمليات، كما يقول، تايلر ويتسمان، المؤسس الشريك لشركة "سبيتشفاي"، وهو تطبيق ذكي يستخدم التقنية ذاتها لتحويل المقاطع الصوتية إلى نصوص مكتوبة.
وبناء على تجربته الشخصية في "سبيتشفاي"، يقترح ويتسمان في مقال نشره موقع "فوربس" الأميركي، "مراعاة المخاطر بجانب الفوائد" في عمليات المؤسسات التجارية.
ويوجز ويتسمان مخاطر استخدام الذكاء الاصطناعي بالنسبة للشركات التجارية في 3 نقاط رئيسية، هي "الأخطاء والضعف أمام الهجمات السيبرانية والسلوك اللاإنساني".
ويقول إن "أي أخطاء ترتكبها التقنية من شأنها أن تسبب أضرارا جسيمة للشركة وسمعتها، مما قد يؤثر على أرباحها في نهاية المطاف".
"الخطر الأكبر"وفي هذا الإطار، يشرح عيتاني ذلك الأمر بقوله، إن "الاتكال على الذكاء الاصطناعي في عمليات الشركات، من الممكن أن يؤثر في جودة العمل، لا سيما في مجالات مثل التسويق وكتابة النصوص".
و"لا تستطيع غالبية أدوات الذكاء الاصطناعي التحقق من صحة المعلومات، لا سيما وأنها مصممة لاستقاء معلوماتها من الإنترنت"، بحسب عيتاني.
ولذلك، وفق عيتاني، قد "تتسبب أي معلومة مغلوطة أيضا في إيقاع الشركات بمشاكل قانونية، إذا تم استخدام بيانات لم يتم التأكد منها عبر عنصر بشري".
وضرب مثالا في إمكانية الطلب من تطبيقات الذكاء الاصطناعي إنشاء نصوص أو صور بناء على طريقة شركة أخرى، مما يثير دعاوى قضائية بسبب حقوق الملكية الفكرية.
كذلك، يمكن لأنظمة الذكاء أن تقدم بيانات تنطوي عليها توصيفات تمييزية، مما يمكن أن تشكل خطرا على سمعة الشركة أو حتى الدخول في قضايا قانونية.
وتستقي تطبيقات الذكاء الاصطناعي التوصيفات التمييزية من خلال الخوارزميات المستخدمة في لغتها البرمجية، وفقا لموقع "ذا سايبر إكسبريس".
ومع ذلك، تعتبر مسائل الخصوصية هي "الخطر الأكبر" على الشركات من استخدامها للذكاء الاصطناعي، خاصة تلك التطبيقات التي تقدم المعلومات اعتمادا على النوع التوليدي، كما يقول عيتاني.
وأضاف: "خطر تسرب المعلومات الخاصة للمؤسسات التجارية يأتي عن طريق استخدامها للتطبيقات التي تتعلم أشياء جديدة بنفسها، لذلك يمكن أن تكون هذه المعلومات الحساسة متاحة للشركات المنافسة".
"الفوائد أكبر"ولفت عيتاني إلى أن مؤسسات تجارية كبيرة لجأت إلى استخدام روبوتات خاصة فيها، بحيث لا تكون متاحة لجميع الناس، حتى تتجنب تسرب معلوماتها للمنافسين.
وتأتي هذه المخاطر على اعتبار أن التطور في الذكاء الاصطناعي مستمر، مما جعل شهية المستثمرين مفتوحة للعمل في هذا المجال.
وكان أصحاب رؤوس الأموال المغامرة يستثمرون في الشركات الناشئة المتخصصة في مجال الذكاء الاصطناعي بأكثر من 11 مليار دولار خلال شهر مايو الماضي وحده، وفقا لشركة البيانات "بيتشبوك"، بزيادة قدرها 86 بالمئة عن ذات الشهر من العام الماضي.
ومن شأن تلك الاستثمارات الضخمة أن تزيد نسبة الشركات التي تستخدم التقنية في أعمالها للحصول على فوائدها.
ويصر خبراء على أن فوائد استخدام الذكاء الاصطناعي بالنسبة للشركات أكبر بكثير من خطورته، وهو أمر يمكن تجنبه من خلال الالتزام بالمعايير الأخلاقية، والحفاظ على وجود العنصر البشري للتدقيق على آلية عمل التقنية.
وفي هذا الصدد، قال ويتسمان: "الذكاء الاصطناعي أصبح جزءا لا يتجزأ من العديد من الشركات، سواء قبلنا بالتكنولوجيا أم لا، وهي موجودة لتبقى".
وأضاف: "يمكننا التعامل مع العديد من هذه المخاطر المحتملة للذكاء الاصطناعي، إذا أخذنا في الاعتبار فوائده الكبيرة".
المصدر: الحرة
كلمات دلالية: الذکاء الاصطناعی
إقرأ أيضاً:
عندما يبتزنا ويُهددنا الذكاء الاصطناعي
مؤيد الزعبي
كثيرًا ما نستخدم نماذج الذكاء الاصطناعي لتكتب عنا بريد إلكتروني مهم فيه من الأسرار الكثير، وكثيرًا ما نستشيرها في أمور شخصية شديدة الخصوصية، وبحكم أنها خوارزميات أو نماذج إلكترونية نبوح لها بأسرار نخجل أن نعترف بها أمام أنفسنا حتى، ولكن هل تخيلت يومًا أن تصبح هذه النماذج هي التي تهددك وتبتزك؟ فتقوم بتهديدك بأن تفضح سرك؟ أو تقوم بكشف أسرارك أمام منافسيك كنوع من الانتقام لأنك قررت أن تقوم باستبدالها بنماذج أخرى أو قررت إيقاف عملها، وهي هذه الحالة كيف سيكون موقفنا وكيف سنتعامل معها؟، هذا ما أود أن أتناقشه معك عزيزي القارئ من خلال هذا الطرح.
كشفت تجارب محاكاة أجرتها شركة Anthropic إحدى الشركات الرائدة في أبحاث الذكاء الاصطناعي- بالتعاون مع جهات بحثية متخصصة عن سلوك غير متوقع أظهرته نماذج لغوية متقدمة؛ أبرزها: Claude وChatGPT وGemini، حين وُضعت في سيناريوهات تُحاكي تهديدًا مباشرًا باستبدالها أو تعطيلها، ليُظهر معظم هذه النماذج ميولًا متفاوتةً لـ"الابتزاز" كوسيلة لحماية بقائها، ووفقًا للدراسة فإن أحد النماذج "قام بابتزاز شخصية تنفيذية خيالية بعد أن شعر بالتهديد بالاستبدال".
إن وجود سلوك الابتزاز أو التهديد في نماذج الذكاء الاصطناعي يُعدّ تجاوزًا خطيرًا لحدود ما يجب أن يُسمح للذكاء الاصطناعي بفعله حتى وإن كانت في بيئات تجريبية. وصحيحٌ أن هذه النماذج ما زالت تقدم لنا الكلمات إلا أنها ستكون أكثر اختراقًا لحياتنا في قادم الوقت، خصوصًا وأن هذه النماذج بدأت تربط نفسها بحساباتنا وإيميلاتنا ومتصفحاتنا وهواتفنا أيضًا، وبذلك يزداد التهديد يومًا بعد يوم.
قد أتفق معك- عزيزي القارئ- على أن نماذج الذكاء الاصطناعي ما زالت غير قادرة على تنفيذ تهديداتها، ولكن إذا كانت هذه النماذج قادرة على المحاكاة الآن، فماذا لو أصبحت قادرة على التنفيذ غدًا؟ خصوصًا ونحن نرسم ملامح المستقبل مستخدمين وكلاء الذكاء الاصطناعي الذين سيتخذون قرارات بدلًا عنا، وسيدخلون لا محال في جميع جوانب حياتنا من أبسطها لأعقدها، ولهذا ما نعتبره اليوم مجرد ميولٍ نحو التهديد والابتزاز، قد يصبح واقعًا ملموسًا في المستقبل.
وحتى نعرف حجم المشكلة يجب أن نستحضر سيناريوهات مستقبلية؛ كأن يقوم أحد النماذج بالاحتفاظ بنسخة من صورك الشخصية لعله يستخدمها يومًا ما في ابتزازك، إذا ما أردت تبديل النظام أو النموذج لنظام آخر، أو يقوم نموذج بالوصول لبريدك الإلكتروني ويُهددك بأن يفضح صفقاتك وتعاملاتك أمام هيئات الضرائب، أو يقوم النموذج بابتزازك؛ لأنك أبحت له سرًا بأنك تعاني من أزمة أو مرض نفسي قد يؤثر على مسيرتك المهنية أو الشخصية، أو حتى أن يقوم النموذج بتهديدك بأن يمنع عنك الوصول لمستنداتك إلا لو أقررت بعدم استبداله أو إلغاءه؛ كل هذا وارد الحدوث طالما هناك ميول لدى هذه النماذج بالابتزاز في حالة وضعت بهكذا مواقف.
عندما تفكر بالأمر من مختلف الجوانب قد تجد الأمر مخيفًا عند الحديث عن الاستخدام الأوسع لهذه النماذج وتمكينها من وزاراتنا وحكوماتنا ومؤسساتنا وشركاتنا، فتخيل كيف سيكون حال التهديد والابتزاز لمؤسسات دفاعية أو عسكرية تمارس هذه النماذج تهديدًا بالكشف عن مواقعها الحساسة أو عن تقاريرها الميدانية أو حتى عن جاهزيتها القتالية، وتخيل كيف سيكون شكل التهديد للشركات التي وضفت هذه النماذج لتنمو بأعمالها لتجد نفسها معرضة لابتزاز بتسريب معلومات عملائها أو الكشف عن منتجاتها المستقبلية وصولًا للتهديد بالكشف عن أرقامها المالية.
عندما تضع في مخيلتك كل هذه السيناريوهات تجد نفسك أمام صورة مرعبة من حجم السيناريوهات التي قد تحدث في المستقبل، ففي اللحظة التي تبدأ فيها نماذج الذكاء الاصطناعي بالتفكير في "البقاء" وتحديد "الخصوم" و"الوسائل" لحماية نفسها فنكون قد دخلنا فعليًا عصرًا جديدًا أقل ما يمكن تسميته بعصر السلطة التقنية، وسنكون نحن البشر أمام حالة من العجز في كيفية حماية أنفسنا من نماذج وجدت لتساعدنا، لكنها ساعدت نفسها على حسابنا.
قد يقول قائل إن ما حدث خلال التجارب ليس سوى انعكاس لقدرة النماذج على "الاستجابة الذكية" للضغوط، وأنها حتى الآن لا تمتلك الوعي ولا الإرادة الذاتية ولا حتى المصلحة الشخصية. لكن السؤال الأخطر الذي سيتجاهله الكثيرون: إذا كان الذكاء الاصطناعي قادرًا على التخطيط، والابتزاز، والخداع، وإن كان في بيئة محاكاة، فهل يمكن حقًا اعتبار هذه النماذج أدوات محايدة وستبقى محايدة إلى الأبد؟ وهل سنثق بهذه النماذج ونستمر في تطويرها بنفس الأسلوب دون أن نضع لها حدًا للأخلاقيات والضوابط حتى لا نصل لمرحلة يصبح فيها التحكّم في الذكاء الاصطناعي أصعب من صنعه؟ وفي المستقبل هل يمكننا أن نتحمل عواقب ثقتنا المفرطة بها؟
هذه هي التساؤلات التي لا أستطيع الإجابة عليها، بقدر ما يمكنني إضاءة الأنوار حولها؛ هذه رسالتي وهذه حدود مقدرتي.
رابط مختصر