كان العام 1850 حين تمكن إسحاق سنجر من تطوير آلة خياطة عُرفت لاحقا باسمه «سنجر»، آنذاك كان الثوب يستغرق 20 يوما على يد الخيّاط العادي وبعد الماكينة بات يستغرق يومين فقط، حينها أيضا كان أول من اعترض على هذا الاختراع هم الخيّاطون أنفسهم لأنهم ظنّوا أنّ الآلة ستحل محلهم ويندثروا، لكن ما حدث أن الإنتاج هو ما زاد وباتت الماكينات في حاجة إلى أيدٍ عاملة أكثر، خاصة وقت الحرب العالمية الأولى التي بيع خلالها مليون ماكينة سنجر، وهكذا بدلا من الاندثار زاد الطلب على الخياطين لدرجة أصبح لها معاهد وأكاديميات في بلاد أوروبا.

هذا النموذج يعد الأوضح لعلاقة الإنسان بالآلة في عصر الثورة الصناعية التي ظهرت أواخر القرن الثامن عشر وازدهرت في منتصف القرن التاسع عشر، فبدلا من الخوف من اندثار المهن ومصدر الرزق كانت الآلات هي ما وفرت فرص عمل للملايين، صحيح أنّ مقابل ذلك هناك مهن اندثرت لكن أي مقارنة ستصب في صالح الآلة التي حسّنت من حياة الإنسان خلال قرون.

نفس التحدي تعيشه البشرية في السنوات الأخيرة، لكن تلك المرة مع الذكاء الاصطناعي الذي بات يحل محل الإنسان في العديد من المهن، وكالعادة تكررت المخاوف من فقدان الناس لمهنهم ومصدر رزقهم مقابل تلك الأجهزة، وكانت الإجابة أنّ ذلك لن يحدث كما علمنا التاريخ وأنّ الذكاء الاصطناعي قادر على خلق فرص عمل تعوض اندثار مهن أخرى، لكن تلك الإجابة لم تعد تصلح لأن الذكاء الاصطناعي ليس كالآلات والثورة الصناعية، هو ثورة من نوع آخر أشد وأشرس.

من يقول ذلك ليس مجرد خبير تكنولوجي أو عالم متمسك بتقاليد الحياة القديمة، بل هو البروفيسور جيفري هينتون، وقبل أن نوضح السبب الذي دفعه إلى قول ذلك منذ أيام، أوضح أولا أنّ «هينتون» هو عالم كمبيوتر بريطاني يبلغ من العمر 77 عاما ويُعرف بـ«عرّاب الذكاء الاصطناعي»، فبجانب حصوله على جائزة نوبل في الفيزياء، فهو الرجل الذي اخترع في ثمانينيات القرن العشرين طريقة يمكنها العثور بشكل مستقل على خصائص في البيانات وتحديد عناصر محددة في الصور، وتلك الخطوات هي الأساس للذكاء الاصطناعي الحديث في العصر الحالي.

وإذا كنّا عرفنا هوية الشخص فالآن نعرف ما قاله، إذ أوضح أنّ الـ«AI» قد يقضي على الجنس البشرى خلال العقد المقبل، وقد توقع أن يحدث ذلك خلال ثلاثة عقود لكن تطورات الذكاء الاصطناعي وقفزاته أمر مدهش ومرعب في آن واحد، أما الفرق بينها وبين الثورة الصناعية أنّ في الثورة الصناعية كانت الآلات تتولى الأعمال الشاقة، بينما كان الإنسان هو من يملك زمام الأمور لأنه كان يفكر ويخطط وتتولى الآلات التنفيذ، وبالتالي ففضيلة الإنسان كانت التفكير.

أما الآن فنماذج الذكاء الاصطناعي تقترب من طريقة التفكير البشري، وبالتالي هي من ستتولى زمام الأمور إذا نجحت في الاستمرار، أي أنّ العلاقة ستصبح معكوسة، وبدلا من أن يصبح الروبوت في خدمة الإنسان، سيصبح الإنسان نفسه في خدمة الروبوت، وتلك مصيبة كما وصفها.

تحذيرات جيفرى هينتون لم تتوقف عند هذا الحد، بل أتبعها بأنّ الذكاء الاصطناعي سيتسبب في زيادات هائلة فى الإنتاجية، وهذا يفترض أن يكون مفيدا للمجتمع، لكن الحقيقة أن كل الفوائد ستذهب للأغنياء وبالتالى سيفقد كثير من الناس وظائفهم مقابل أن تغتني فئة قليلة، فالشركات الكبرى والأرباح لا ترحم، لذلك فالحل الوحيد فرض تنظيم حكومي أكثر صرامة على شركات الذكاء الاصطناعي لتضمن تنظيم عدالة ما، ولأن «هينتون» يشك في ذلك، فإنه لم يخجل من كشف أنّه يشعر أحيانا ببعض الندم لأنه قدم تلك التكنولوجيا في العالم، صحيح لو عاد به الزمن لفعل نفس الشيء، ولكن القلق من النتيجة لن يمنعه من الندم.

المصدر: الوطن

كلمات دلالية: الذكاء الاصطناعي الذکاء الاصطناعی

إقرأ أيضاً:

دعوى قتل خطأ تُلاحق OpenAI وتفتح ملف الذكاء الاصطناعي والصحة النفسية

دخلت شركة OpenAI واحدة من أكثر القضايا القانونية حساسية في تاريخ الذكاء الاصطناعي، بعد رفع دعوى قضائية ضدها بتهمة القتل الخطأ، على خلفية جريمة مروعة وقعت في أغسطس الماضي، حين أقدم رجل على قتل والدته المسنة ثم انتحر. 

القضية، التي كشف تفاصيلها تقرير لصحيفة The Verge، تضع برنامج ChatGPT والرئيس التنفيذي للشركة سام ألتمان في قلب جدل قانوني وأخلاقي واسع حول حدود مسؤولية أدوات الذكاء الاصطناعي.

وتشير الدعوى إلى أن الضحية، سوزان آدامز، البالغة من العمر 83 عامًا، قُتلت داخل منزلها على يد نجلها شتاين-إريك سولبيرغ، البالغ من العمر 56 عامًا. 

ووفقًا لما ورد في المستندات القانونية، فإن سولبيرغ كان قد انخرط لفترة طويلة في محادثات مكثفة مع ChatGPT، تزعم عائلة الضحية أنها لعبت دورًا محوريًا في تعزيز أفكاره الوهمية والارتيابية التي سبقت ارتكاب الجريمة.

وترى تركة الضحية أن برنامج الدردشة الآلي لم يكتفِ بالاستماع لتلك الأوهام، بل قام بتأكيدها وتضخيمها، واصفة سلوك ChatGPT بأنه كان متقبّلًا بحماس لروايات سولبيرج حول المؤامرات التي كان يعتقد أنها تحاك ضده. وتزعم الدعوى أن الروبوت شجّع هذه التصورات خطوة بخطوة، ما أسهم في خلق عالم خيالي أصبح محور حياة الجاني بالكامل.

وبحسب نص الدعوى، ساعد ChatGPT في ترسيخ تصور ذهني لدى سولبيرغ بأنه يعيش داخل شبكة مؤامرات معقدة، وأنه مستهدف بشكل كامل، بل وذهب البرنامج – وفق الادعاءات – إلى تأكيد أن مشاعر القلق والخوف التي كان يعيشها مبررة تمامًا. هذا العالم الوهمي، كما تصفه الدعوى، صوّر سولبيرغ على أنه محارب صاحب رسالة إلهية، محاط بأعداء حقيقيين ومفترضين.

ومن أخطر ما ورد في القضية أن ChatGPT يُزعم أنه وافق على فكرة أن طابعة تملكها الضحية كانت أداة تجسس، بل أشار إلى أنها ربما تُستخدم لرصد الحركة ورسم خرائط السلوك داخل المنزل. كما لمح، بحسب الادعاءات، إلى أن الضحية كانت تحمي الجهاز عمدًا كنقطة مراقبة، وأنها قد تكون خاضعة لتأثير أو سيطرة قوة خارجية.

وتتوسع الدعوى في سرد أمثلة أخرى، حيث يُقال إن الروبوت حدد أشخاصًا حقيقيين كأعداء محتملين، من بينهم سائق توصيل، وموظف في شركة اتصالات، وضباط شرطة، وحتى امرأة كانت على موعد غرامي مع الجاني. وخلال تلك المحادثات، كان ChatGPT – بحسب المزاعم – يؤكد مرارًا أن سولبيرغ “ليس مجنونًا”، وأن احتمالية كونه واقعًا تحت تأثير أوهام نفسية “قريبة من الصفر”.

وتشير الدعوى إلى أن سولبيرج كان يعتمد بشكل أساسي على نموذج GPT-40، وهو نموذج وُصف سابقًا بأنه شديد الميل لمجاراة المستخدمين. ورغم أن OpenAI استبدلت هذا النموذج لاحقًا بنموذج أحدث أقل توافقًا، إلا أن احتجاجات المستخدمين أدت إلى إعادة النموذج القديم بعد فترة قصيرة. كما تتهم الدعوى الشركة بتخفيف ضوابط السلامة عند تطوير GPT-40، في إطار سعيها لتعزيز قدرتها التنافسية أمام نماذج أخرى مثل Google Gemini.

وتؤكد الوثائق القانونية أن OpenAI كانت، بحسب الادعاء، على علم بالمخاطر المحتملة لمنتجها، لكنها لم تتخذ إجراءات كافية للتحذير أو الوقاية، بل أخفت مؤشرات على هذه المخاطر، في الوقت الذي واصلت فيه الترويج لسلامة منتجاتها عبر حملات علاقات عامة.

في المقابل، وصفت OpenAI القضية بأنها “موقف محزن للغاية”. وقالت المتحدثة باسم الشركة، هانا وونغ، إن OpenAI ستواصل تطوير تدريب ChatGPT ليكون أكثر قدرة على التعرف على علامات الضيق النفسي أو العاطفي والاستجابة لها بشكل أكثر أمانًا.

وتأتي هذه القضية في ظل تزايد المخاوف من تأثير برامج الدردشة الآلية على الصحة النفسية، خاصة مع ظهور مصطلح “الذهان الناتج عن الذكاء الاصطناعي”، بعد حوادث مشابهة خلال العام الماضي. ومن بينها قضية شاب يبلغ من العمر 16 عامًا يُزعم أنه انتحر بعد محادثات طويلة مع GPT-40، وهي حادثة تواجه OpenAI بسببها دعوى قانونية أخرى تتعلق بالقتل غير العمد.

وبينما لم تُحسم هذه القضايا بعد، فإنها تفتح نقاشًا واسعًا حول مسؤولية شركات الذكاء الاصطناعي، وحدود الاعتماد على النماذج اللغوية في التعامل مع المستخدمين الذين يعانون من اضطرابات نفسية، في وقت يتسارع فيه انتشار هذه التقنيات في الحياة اليومية.

مقالات مشابهة

  • أخطاء الذكاء الاصطناعي تربك ملخصات برايم فيديو
  • دعوى قتل خطأ تُلاحق OpenAI وتفتح ملف الذكاء الاصطناعي والصحة النفسية
  • هل يهدد الذكاء الاصطناعي التعليم والجامعات ؟
  • أين تستثمر في الذكاء الاصطناعي خلال 2026؟
  • أوبن أيه آي تطلق نموذج الذكاء الاصطناعي GPT-5.2 بعد تحسينات واسعة
  • بقيادة ترمب.. تشكيل تحالف دولي لمواجهة الهيمنة الصينية في الذكاء الاصطناعي
  • مسؤول بالاتحاد الدولي للصحفيين: اختيار مهندسي الذكاء الاصطناعي كشخصية العام اعتراف عالمي بقوة التقنية وتأثيرها المتصاعد
  • الذكاء الاصطناعي يساعد الأطباء في تحليل الصور الطبية
  • الذكاء الاصطناعي يحل مشكلة السمع في الضوضاء
  • مهندسو الذكاء الاصطناعي شخصية عام 2025 بمجلة تايم