شاهد المقال التالي من صحافة الصحافة العربية عن بيل غيتس ماذا لو قرر الذكاء الاصطناعي عدم حاجته للبشر وأراد التخلص منا؟، ورغم عدالة التساؤلات، إلا أن غيتس أكد في مقال على موقعه .،بحسب ما نشر العربية نت، تستمر تغطيتنا حيث نتابع معكم تفاصيل ومعلومات بيل غيتس : ماذا لو قرر الذكاء الاصطناعي عدم حاجته للبشر وأراد التخلص منا؟، حيث يهتم الكثير بهذا الموضوع والان إلى التفاصيل فتابعونا.

بيل غيتس : ماذا لو قرر الذكاء الاصطناعي عدم حاجته...

ورغم عدالة التساؤلات، إلا أن "غيتس" أكد في مقال على موقعه الشخصي، بأنها ليست المرة الأولى التي يقدم فيها ابتكار رئيسي تهديدات جديدة يجب السيطرة عليها.

لحظات تحويلية أخرى، وعلى الرغم من الكثير من الاضطرابات، فقد أصبحوا أفضل حالاً في النهاية. وبعد فترة وجيزة من ظهور السيارات الأولى على الطريق، كان هناك أول حادث سيارة. لكننا لم نحظر السيارات - فقد اعتمدنا حدود السرعة، ومعايير السلامة، ومتطلبات الترخيص، وقوانين القيادة تحت تأثير الكحول، وقواعد الطريق الأخرى.

وفي لحظة كهذه، من الطبيعي أن تشعر بعدم الاستقرار. لكن التاريخ يُظهر أنه من الممكن حل التحديات التي أحدثتها التقنيات الجديدة.

وقال: "شيء واحد واضح من كل ما تمت كتابته حتى الآن حول مخاطر الذكاء الاصطناعي - وكُتب الكثير - هو أنه لا أحد لديه كل الإجابات". "شيء آخر واضح بالنسبة لي هو أن مستقبل الذكاء الاصطناعي ليس قاتماً كما يعتقد البعض أو وردياً كما يعتقد الآخرون. المخاطر حقيقية، لكني متفائل بإمكانية إدارتها".

وكتب "غيتس"، أن هناك مخاطر حول الوصول للذكاء الاصطناعي الخارق، والذي قد يرسم أهدافه بشكل منفرد، وقد يتعارض بعضها مع أهداف البشرية، ولكن هذه الأسئلة قد لا يكون من المناسب الإجابة عليها الآن، خاصةً وأن عمليات التطوير قد تأخذ وقتاً أكثر مما نعتقد، لكن على جانب المخاطر الأكثر إلحاحاً، فقد يمكن أن يؤدي التزييف العميق والمعلومات الخاطئة الناتجة عن الذكاء الاصطناعي إلى تقويض الانتخابات والديمقراطية.

وعلى نطاق أوسع، يمكن استخدام تقنية التزييف العميق الناتجة عن الذكاء الاصطناعي لمحاولة ترجيح الانتخابات. بالطبع، لا يتطلب الأمر تقنية متطورة لبث الشكوك حول الفائز الشرعي في الانتخابات، ولكن الذكاء الاصطناعي سيجعل الأمر أسهل.

وكتب غيتس: "لكن شيئين يجعلانني متفائلاً بحذر. أحدها أن الناس قادرون على تعلم ألا يأخذوا كل شيء في ظاهره". "الشيء الآخر، هو أن الذكاء الاصطناعي يمكن أن يساعد في تحديد التزييف العميق وكذلك في إنشائها".

شن الهجمات الإلكترونية

ويجب على خبراء الأمن الذين يريدون مواجهة المتسللين أن يفعلوا الشيء نفسه. ويمثل كل برنامج تصحيح تقوم بتثبيته على هاتفك أو جهاز الكمبيوتر المحمول الخاص بك عدة ساعات من البحث، من قبل الأشخاص ذوي النوايا الحسنة والسيئة على حد سواء.

والخبر السار وفقاً لـ "غيتس"، هو أنه يمكن استخدام الذكاء الاصطناعي للأغراض الجيدة وكذلك للأغراض السيئة. إذ ستحتاج فرق الأمن الحكومية والقطاع الخاص إلى امتلاك أحدث الأدوات للعثور على الثغرات الأمنية وإصلاحها قبل أن يتمكن المجرمون من الاستفادة منها.

هناك خطر ذو صلة على المستوى العالمي: سباق تسلح للذكاء الاصطناعي يمكن استخدامه لتصميم وشن هجمات إلكترونية ضد دول أخرى. تريد كل حكومة أن تمتلك أقوى التقنيات حتى تتمكن من ردع الهجمات من خصومها. وقد يؤدي هذا الحافز إلى عدم السماح لأي شخص بالمضي قدماً إلى سباق لإنشاء أسلحة إلكترونية خطيرة بشكل متزايد. سيكون الجميع أسوأ حالاً.

وفي السنوات القليلة المقبلة، سيكون التأثير الرئيسي للذكاء الاصطناعي على العمل هو مساعدة الأشخاص على أداء وظائفهم بشكل أكثر كفاءة.

ضع في اعتبارك أيضاً أن هذه ليست المرة الأولى التي تتسبب فيها تقنية جديدة في حدوث تحول كبير في سوق العمل. إذ لا يعتقد "غيتس" أن تأثير الذكاء الاصطناعي سيكون دراماتيكياً مثل الثورة الصناعية، لكنه بالتأكيد سيكون بحجم إدخال الكمبيوتر الشخصي.

هلاوس الذكاء الاصطناعي

بالإضافة إلى خطر آخر، وهو أنه يعكس أو حتى يفاقم التحيزات القائمة ضد أشخاص من هويات وأعراق معينة، وما إلى ذلك.

وضرب "غيتس" مثالاً: "إذا كتبت للذكاء الاصطناعي أنه ارتكب خطأ، فقد يقول آسف، لقد أخطأت في كتابة ذلك". لكن هذه هلوسة – إذ لم تكتب له أي شيء قبل اتهامه بالخطأ. ولكن هذه البرمجيات ترد بإجابات تم فحص نصوصاً كافية لتعرف أن "آسف، لقد أخطأت في كتابة ذلك" هي جملة يكتبها الناس غالباً بعد أن يصححها شخص ما.

على الرغم من أن بعض الباحثين يعتقدون أن الهلوسة مشكلة متأصلة، إلا أنني لا أتفق معها. أنا متفائل بأنه، بمرور الوقت، يمكن تعليم نماذج الذكاء الاصطناعي التمييز بين الحقيقة والخيال.

ماذا بعد؟

أعتقد أن هناك أسباباً أكثر من عدم التفاؤل بأننا نستطيع إدارة مخاطر الذكاء الاصطناعي مع تعظيم فوائدها. لكننا بحاجة إلى التحرك بسرعة.

وفي القطاع الخاص، تحتاج شركات الذكاء الاصطناعي إلى متابعة عملها بأمان ومسؤولية. يتضمن ذلك حماية خصوصية الأشخاص، والتأكد من أن نماذج الذكاء الاصطناعي الخاصة بهم تعكس القيم الإنسانية الأساسية، وتقليل التحيز، ونشر الفوائد لأكبر عدد ممكن من الناس، ومنع استخدام التكنولوجيا من قبل المجرمين أو الإرهابيين. كما ستحتاج الشركات في العديد من قطاعات الاقتصاد إلى مساعدة موظفيها على الانتقال إلى مكان عمل يركز على الذكاء الاصطناعي حتى لا يتخلف أحد عن الركب. ويجب أن يعرف العملاء دائماً متى يتفاعلون مع ذكاء اصطناعي وليس مع إنسان.

المصدر: صحافة العرب

كلمات دلالية: الذكاء موعد عاجل الدولار الامريكي اليوم اسعار الذهب اسعار النفط مباريات اليوم جدول ترتيب حالة الطقس للذکاء الاصطناعی

إقرأ أيضاً:

خبراء يحذرون: الذكاء الاصطناعي ليس بديلًا آمنا للعلاج النفسي

مع التوسع المتزايد في استخدام تقنيات الذكاء الاصطناعي في شتى المجالات، بدأ البعض يلجأ لهذه الأدوات كمساعدات نفسية، أو حتى كبدائل عن الأطباء المختصين إلا أن خبراء الصحة النفسية يحذرون من هذه الممارسات، ويؤكدون أنها قد تحمل عواقب خطيرة على الصحة النفسية والخصوصية الشخصية.

خبراء يحذرون: الذكاء الاصطناعي ليس بديلًا آمنا للعلاج النفسي

وفي هذا السياق، صرحت الدكتورة يكاتيرينا أورلوفا، نائبة مدير معهد علم النفس السريري والعمل الاجتماعي بجامعة بيروغوفسكي الروسية، لصحيفة "غازيتا.رو"، بمجموعة من التحذيرات الهامة.

قالت أورلوفا إن "الذكاء الاصطناعي لا يمكنه تقديم دعم نفسي مؤهل، لأنه يفتقر إلى التعاطف الحقيقي، وغير قادر على التقاط الإشارات غير اللفظية الدقيقة التي تحمل في طياتها معانٍ نفسية عميقة". 

وأشارت إلى خطورة أن يفشل النظام في لحظات حرجة من اليأس أو الاضطراب النفسي، وربما يقدّم نصائح غير ملائمة أو حتى مؤذية.

خطر على خصوصية المرضى

أحد أكبر التحديات في الاعتماد على الذكاء الاصطناعي في العلاج النفسي هو الخصوصية وأوضحت أورلوفا: المشاعر والمخاوف التي يبوح بها المستخدم للذكاء الاصطناعي يمكن أن تُستخدم بشكل ضار إذا وقعت في أيدي جهات غير نزيهة، خاصة أن إعادة التعرف على هوية الأشخاص من بيانات مجهولة أصبح أمرًا ممكنًا في بعض الحالات.

وشدّدت الخبيرة على أن خوارزميات الذكاء الاصطناعي ليست محايدة، فهي تتعلم من بيانات أنشأها بشر يحملون تحيّزاتهم، مما يجعل الذكاء الاصطناعي عرضة لإعادة إنتاج الصور النمطية أو التمييز ضد فئات معينة من المرضى النفسيين.

أشارت أورلوفا إلى أن الخطر الأكبر يتمثل في خلق وهم لدى الناس بأن الذكاء الاصطناعي يمكنه أن يحل محل الطبيب النفسي، ما قد يؤدي إلى تأجيل طلب المساعدة الحقيقية حتى في الحالات الحرجة.

في الختام، رغم أن الذكاء الاصطناعي يمكن أن يكون أداة مساعدة في جمع البيانات أو تقديم دعم أولي، فإنه لا يجب اعتباره بديلًا للعلاج النفسي الحقيقي الذي يقدمه مختصون قادرون على التفاعل الإنساني والتعاطف وفهم السياق العاطفي بدقة.

مقالات مشابهة

  • مساعد الذكاء الاصطناعي بواتساب يسرب رقم هاتف أحد المستخدمين
  • “آبل”: الذكاء الاصطناعي يفتقر للتفكير العميق
  • دراسة: استخدام الذكاء الاصطناعي في الكتابة يؤثر سلبًا في نشاط الدماغ
  • أبل تدرس الاستحواذ على Perplexity AI لتعويض تأخرها في سباق الذكاء الاصطناعي
  • خبراء يحذرون: الذكاء الاصطناعي ليس بديلًا آمنا للعلاج النفسي
  • الذكاء الاصطناعي في التحكيم الرياضي بين الدقة والتحديات
  • محتوى بلا بشر… الذكاء الاصطناعي يغزو تيك توك والارباح تتضاعف
  • غوغل تطور البحث الصوتي.. تفاعل ذكي مدعوم بـ«الذكاء الاصطناعي»
  • وضع الذكاء الاصطناعي.. رهان غوغل الجديد لمواجهة منافسي البحث
  • مش خطر على شغلك| الذكاء الاصطناعي يزيد راتبك بنسبة 56%