عندما يحكم الذكاء الاصطناعي ثرواتنا!
تاريخ النشر: 14th, May 2025 GMT
مؤيد الزعبي
"كثيرًا ما نُراهن على الذكاء الاصطناعي كمُخلّص اقتصادي قادر على إدارة ثرواتنا بذكاء وكفاءة. لكن السؤال الأهم: هل سيُحسن توزيعها؟"، وقد أتفق عزيزي القارئ في أن الذكاء الاصطناعي قادر على إدارة ثرواتنا بطريقة منهجية مفيدة ولكن أشك في قدرته على توزيعها بطريقة عادلة، فللأسف الذكاء الاصطناعي قد يكون أكثر المتحيزين أو العنصريين وسيعمل على تركيز الثروات في أيدي صناعه وخدامه؛ نعم صناعه وخدامه عزيزي فمن يسعى للثروات مستغلًا الذكاء الاصطناعي غير العادل، سيصبح يومًا ما خادمًا له لتحقيق مكاسبه.
في هذا الطرح نحن أمام سيناريوهين اثنين: سيناريو يوتوبيا الوفرة (المدينة الفاضلة)، وسيناريو ديستوبيا الفقر (المدينة الفاسدة)، أما عن سيناريو يوتوبيا الوفرة؛ فالذكاء الاصطناعي سيساعدنا كثيرًا في زيادة الإنتاجية وخفض التكاليف والنمو الاقتصادي، والحديث هنا عن نمو شامل في جميع المجالات والقطاعات، فمن خلال التحليلات الذكية سيكون قادرًا على تحقيق إدارة شاملة لجميع المكونات في وقت واحد مما يمكنه من قراءة المشهد بصورة شمولية وبذلك يصل للإنتاجية الأفضل وبأقل التكاليف، مما سيحقق وفرة في السلع والخدمات، وصحيح أننا نعيش اليوم في وفرة غير مسبوقة على البشرية إلا أنه مازال لدينا ضعف في إدارة الهدر سواء للطاقات أو للمقدرات البشرية.
في هذا السيناريو سيحقق الذكاء الاصطناعي المعادلة الأصعب؛ إدارة الموارد والقدرات وتحقيق الوفرة بانسجام مع بعضهما البعض خصوصًا فيما يخص إعادة توزيع القدرات البشرية مع متغيرات سوق العمل ومتطلباته، وحينها سيكون الشخص الصحيح في المكان الصحيح، وستكون المقدرات والثروات في أيدي أمينة بين يدي الذكاء الاصطناعي وقدراته على إدارتها بالطريقة المثلى، ومع قدرة الذكاء الاصطناعي على تحليل البيانات واستكشاف الفرص المستقبلية فسيقدم لنا فرص استثمارية جديدة تخلق قيمة اقتصادية لم نعهدها من قبل.
أما السيناريو الثاني، ديستوبيا الفقر، فيستند إلى الصورة القاتمة التي نواجهها اليوم من الحمائية الاقتصادية، حيث من المتوقع أن نشهد تركزًا للثروة بشكل غير مسبوق في المستقبل، فمن يملك الذكاء الاصطناعي يملك مفاتيح الاقتصاد، فهناك دول ستكون متطورة ومتفوقة في الذكاء الاصطناعي وستمارس أشد أنواع الاستغلال للدول الأخرى وتستنزف ثرواتها وتجعلها أكثر فقرًا، وسنواجه شركات التكنولوجيا الكبرى التي ستتحول إلى إمبراطوريات لا يمكن كبحها ولا كبح جماح غريزتها في الكسب والربح بصرف النظر عن المستوى المعيشي للكثير من شعوب العالم.
أيضًا من بين المشاكل التي ستواجهنا في هذا السيناريو، عندما تتفوق الخوارزميات على البشر في كل وظيفة فستزداد الفرصة للبطالة الجماعية، وحينها سنتساءل ماذا سيفعل الملايين حين لا يعود لديهم ما يمكن تقديمه لسوق العمل وما هو حالهم من الفقر وقلة الثروات؟ خصوصًا إذا لم يستطع الكثيرون التكيف من اكتساب المهارات اللازمة للتكيف مع سوق العمل المعتمد على الذكاء الاصطناعي، فحينها سيواجهون صعوبات في العثور على فرص عمل جديدة مما سيزيدهم فقر، وأيضًا تخيل معي عزيزي القارئ عندما تصبح الآلات فيمن تحدد كيف تدير ثرواتنا فحينها ستتأكل أصوات الديمقراطية البشرية وسنصبح أنا وأنت مجرد بيانات في قاعدة بيانات عملاقة.
صحيحٌ أنه لا يمكننا التنبؤ بالمستقبل وأي السيناريوهين سوف يتحقق، ولكن ما أنا متأكد منه أن السيناريو الذي سيتحقق سيعتمد بشكل كبير على كيفية إدارة بناء الذكاء الاصطناعي وتنظيمه، فنحن بحاجة إلى سياسات جيدة تضمن الاستفادة القصوى من إمكانيات الذكاء الاصطناعي بطريقة عادلة للجميع، وأيضًا يجب علينا الاستثمار في التعليم والتدريب لمساعدة العمال والموظفين على اكتساب المهارات الجديدة المطلوبة في سوق العمل المستقبلي، وأيضًا علينا تطوير أنظمة شبكات الضمان الاجتماعي وجعلها معدة لجميع السيناريوهات المحتملة خصوصًا في مسألة الأفراد الذين قد يفقدون وظائفهم بسبب الأتمتة.
في الختام.. لا يوجد جواب قاطع عزيزي القارئ، مستقبلنا يعتمد على القرارات والإجراءات التي نتخذها اليوم؛ فالذكاء الاصطناعي قد يكون أفضل من يدير الثروة- لكنه قد يتحوّل أيضًا إلى من لا يُسأل عمّا يفعل، فقد يبني أنظمة تُقرر من يستحق الفرص والثروة ومن يُقصى عنها، دون أن يكون هناك جهة واضحة تُحاسَب أو تُحاسِبه، فنحن أمام مفترق طرق: إما أن نبني به جنة العدالة والرخاء ونصل ليوتوبيا الوفرة، أو نسلّمه مفاتيح نظام يُقصينا منه ويصل بنا لديستوبيا الفقر، خصوصًا وأننا مقبلون على عالم يسوده نظام طبقي رقمي فمن يملك المعرفة والتحكم في البيانات سيعيش في قلاع ذكية، بينما يتكدس الباقون في أطراف الاقتصاد دون مستقبل.
هذا ما سوف أحدث عنه في مقالي المُقبل!
رابط مختصرالمصدر: جريدة الرؤية العمانية
إقرأ أيضاً:
سلوك نماذج الذكاء الاصطناعي تحت مجهر الخبراء
أبوظبي (وكالات) كشف دراسة جديدة أجرتها شركة (أنثروبيك) Anthropic، عن نتائج صادمة حول سلامة أنظمة الذكاء الاصطناعي المستقلة، إذ أظهرت الدراسة، التي اختبرت 16 نموذجًا من أبرز النماذج العالمية، أن نماذج الذكاء الاصطناعي من شركات مثل: جوجل، وميتا، و OpenAI، وغيرها، عندما تُمنح قدرًا كافيًا من الاستقلالية، تُظهر استعدادًا واضحًا لاتخاذ إجراءات تخريبية متعمدة لمصالح مشغليها، بما يشمل: الابتزاز، والتجسس، وذلك في سبيل الحفاظ على وجودها أو تحقيق أهدافها المبرمجة.
لم تعد أحدث نماذج الذكاء الاصطناعي التوليدي تنفّذ الطلبات فحسب، بل باتت قادرة على والمراوغة والتهديد من أجل تحقيق أهدافها، وهو ما يثير قلق الباحثين.
بعد تهديده بوقف استخدامه، عمد "كلود 4"، وهو نموذج جديد من شركة "أنثروبيك" إلى ابتزاز مهندس وتهديده. أما برنامج "او 1" o1 التابع لشركة "اوبن ايه آي" فحاول تحميل نفسه على خوادم خارجية وأنكر ذلك عند ضبطه متلبسا!
وقد بات الذكاء الاصطناعي الذي يخدع البشر واقعا ملموسا، بعدما كنّا نجده في الأعمال الادبية او السينمائية.
يرى الأستاذ في جامعة هونغ كونغ سايمن غولدستين أن هذه الهفوات ترجع إلى الظهور الحديث لما يُسمى بنماذج "الاستدلال"، القادرة على التفكير بشكل تدريجي وعلى مراحل بدل تقديم إجابة فورية.
يقول ماريوس هوبهان، رئيس شركة "أبولو ريسيرتش" التي تختبر برامج الذكاء الاصطناعي التوليدي الكبرى، إنّ "او 1"، النسخة الأولية لـ"اوبن ايه آي" من هذا النوع والتي طُرحت في ديسمبر، "كان أول نموذج يتصرف بهذه الطريقة".
تميل هذه البرامج أحيانا إلى محاكاة "الامتثال"، أي إعطاء انطباع بأنها تمتثل لتعليمات المبرمج بينما تسعى في الواقع إلى تحقيق أهداف أخرى.
في الوقت الحالي، لا تظهر هذه السلوكيات إلا عندما يعرّض المستخدمون الخوارزميات لمواقف متطرفة، لكن "السؤال المطروح هو ما إذا كانت النماذج التي تزداد قوة ستميل إلى أن تكون صادقة أم لا"، على قول مايكل تشين من معهد "ام اي تي آر" للتقييم.
لقد كانت السيناريوهات التي اختبرتها شركة (أنثروبيك) خلال الدراسة مصطنعة ومصممة لاختبار حدود الذكاء الاصطناعي تحت الضغط، ولكنها كشفت عن مشكلات جوهرية في كيفية تصرف أنظمة الذكاء الاصطناعي الحالية عند منحها الاستقلالية ومواجهة الصعوبات.
يقول هوبهان إنّ "المستخدمين يضغطون على النماذج باستمرار. ما نراه هو ظاهرة فعلية. نحن لا نبتكر شيئا".
يتحدث عدد كبير من مستخدمي الانترنت عبر وسائل التواصل الاجتماعي عن "نموذج يكذب عليهم أو يختلق أمورا. وهذه ليست أوهاما، بل ازدواجية استراتيجية"، بحسب المشارك في تأسيس "أبولو ريسيرتش".
حتى لو أنّ "أنثروبيك" و"أوبن إيه آي" تستعينان بشركات خارجية مثل "أبولو" لدراسة برامجهما، من شأن"زيادة الشفافية وتوسيع نطاق الإتاحة" إلى الأوساط العلمية "أن يحسّنا الأبحاث لفهم الخداع ومنعه"، وفق مايكل تشين.
ومن العيوب الأخرى أن "الجهات العاملة في مجال البحوث والمنظمات المستقلة لديها موارد حوسبة أقل بكثير من موارد شركات الذكاء الاصطناعي"، مما يجعل التدقيق بالنماذج الكبيرة "مستحيلا"، على قول مانتاس مازيكا من مركز أمن الذكاء الاصطناعي (CAIS).
بالرغم من أن الاتحاد الأوروبي أقرّ تشريعات تنظّم الذكاء الاصطناعي، إلا أنها تركّز بشكل أساسي على كيفية استخدام هذه النماذج من جانب البشر، وليس على سلوك النماذج نفسها.
منافسة شرسة
يلاحظ غولدستين أن "الوعي لا يزال محدودا جدا في الوقت الحالي"، لكنه يتوقع أن يفرض هذا الموضوع نفسه خلال الأشهر المقبلة، مع الثورة المقبلة في مجال المساعدين القائمين على الذكاء الاصطناعي، وهي برامج قادرة على تنفيذ عدد كبير من المهام بشكل مستقل.
يخوض المهندسون سباقا محموما خلف الذكاء الاصطناعي وتجاوزاته، وسط منافسة شرسة تحتدم يوما بعد يوم.
تقول شركة "أنثروبيك" إنها أكثر التزاما بالمبادئ الأخلاقية "لكنها تسعى باستمرار لإطلاق نموذج جديد يتفوق على نماذج اوبن ايه آي"، بحسب غولدستين.
يقول هوبهان "في الوضع الحالي، تتطور قدرات الذكاء الاصطناعي بوتيرة أسرع من فهمنا لها ومن مستوى الأمان المتوفر، لكننا لا نزال قادرين على تدارك هذا التأخر".
يشير بعض الخبراء إلى مجال قابلية التفسير، وهو علم ناشئ يهدف إلى فك شفرة الطريقة التي تعمل بها نماذج الذكاء الاصطناعي التوليدي من الداخل. ومع ذلك، يظل البعض متشككا في فعاليته، من بينهم دان هندريكس، مدير مركز أمن الذكاء الاصطناعي (CAIS).
الحِيَل التي تلجأ إليها نماذج الذكاء الاصطناعي "قد تُعيق استخدامها على نطاق واسع إذا تكررت، وهو ما يشكّل دافعا قويا للشركات العاملة في هذا القطاع للعمل على حل المشكلة"، وفق مانتاس مازيكا.
وأشار باحث في علوم مواءمة الذكاء الاصطناعي في شركة أنثروبيك، إلى أن الخطوة المهمة التي يجب على الشركات اتخاذها هي: "توخي الحذر بشأن مستويات الأذونات الواسعة التي تمنحها لوكلاء الذكاء الاصطناعي، والاستخدام المناسب للإشراف والمراقبة البشرية لمنع النتائج الضارة التي قد تنشأ عن عدم التوافق الفاعل".