د.محمد عسكر يكتب: الذكاء الاصطناعي.. حلم التطور ومخاوف السيطرة
تاريخ النشر: 29th, May 2025 GMT
في السنوات الأخيرة، أصبح الذكاء الإصطناعي (AI) واحداً من أكثر المواضيع إثارة للجدل، إذ يتقدم هذا المجال بسرعة فائقة تفوق توقعات الكثيرين. وبينما يرى البعض فيه ثورة تكنولوجية واعدة تحمل فرصاً هائلة في مجالات مثل الطب، والهندسة، والتعليم، والتكنولوجيا، وغيرها من المجالات فإن آخرين ينظرون إليه بعين القلق، محذرين من مخاطره المحتملة.
فما هى أسباب الخوف من الذكاء الإصطناعي، وهل هذا الخوف مبرر؟ ولماذا يجب علينا أن نأخذ هذه المخاوف على محمل الجد؟ وهل آن الأوان لنخاف حقاً من الآلة؟
الذكاء الإصطناعي يُعد من أبرز الإنجازات التي حققها الإنسان في العصر الحديث. فمن القدرة على الترجمة الفورية، إلى تحليل الصور والأصوات، وحتى المساعدة في تشخيص الأمراض، يبدو أنه لا حدود لما يمكن للآلات الذكية إنجازه. ومع ذلك، يساورنى القلق تجاه هذا التقدم، وأرى أن هناك أسباباً وجيهة تجعلنا نخشاه، أو على الأقل نتعامل معه بكثير من الحذر.
أحد أبرز المخاوف يتمثل في فقدان السيطرة. في الوقت الذي تتسابق فيه كبريات شركات التكنولوجيا حول العالم لتطوير آلات تفكر وتتعلم بمفردها، هناك أصوات ترتفع محذرة من أن ما يبدو تقدماً تقنياً قد يكون بداية لمرحلة جديدة لا يتحكم فيها الإنسان في مصيره بالكامل. فهل نحن بالفعل أمام "أداة ذكية" تخدمنا، أم أمام كائن رقمي قد يتحول يوماً إلى خصم يصعب التنبؤ به؟ فمع تطور الذكاء الإصطناعي ليصبح أكثر قدرة على التعلم الذاتي، قد تظهر أنظمة يمكنها تحسين أدائها بدون تدخل بشري مباشر. وهذا يعني أن بعض الأنظمة قد تتخذ قرارات معقدة دون أن نعرف تماماً كيف ولماذا؟، وهذا يطرح أسئلة خطيرة حول الشفافية والمساءلة.
الخطر الآخر يتمثل في التلاعب البشري عبر الذكاء الإصطناعي. منصات التواصل الاجتماعي على سبيل المثال تستخدم خوارزميات دقيقة لتحليل سلوك المستخدمين، وتوجيههم نحو محتوى معين، مما قد يُشكل تهديداً مباشراً للديمقراطية والرأي العام. كم من مرة ظننت أنك إخترت ما تشاهد أو تقرأ، بينما في الحقيقة كانت الآلة هي من دفعك لذلك دون أن تشعر؟ لقد أصبحنا نعيش في عالم تتحكم فيه الخوارزميات بتفاصيل حياتنا اليومية؛ فهي من توجّهنا إلى ما نُشاهد، وتُرشدنا إلى ما نشتري، بل وقد تؤثر بدرجة ما في من نُحب، يبدو أن الذكاء الإصطناعي لم يعد مجرد أداة مساعدة، بل إنة أصبح شريكاً في إتخاذ القرار.
أما في سوق العمل، فالصورة لا تقل قتامة. الذكاء الإصطناعي يهدد ملايين الوظائف حول العالم، خاصة تلك التي تعتمد على المهام الروتينية. ومع زيادة الإعتماد على الأتمتة، تظهر مخاوف من إتساع الفجوة بين أصحاب المهارات التقنية ومن سواهم، ما يُنذر بإضطرابات إجتماعية وإقتصادية قادمة. وما يجعل هذه المخاوف أكثر تعقيداً، هو غياب قوانين رادعة وتنظيمات فعالة تحكم إستخدام الذكاء الإصطناعي. في كثير من الدول، تسير التكنولوجيا أسرع من التشريعات، ما يترك الباب مفتوحاً أمام الشركات لإستخدام هذه التقنيات دون رقابة كافية، أو مساءلة أخلاقية.
أما الخوف الأكبر من وجهه نظرى، فهو من سيناريو تطوير "ذكاء إصطناعى عام" وهو نوع من الذكاء قد يتفوق على الإنسان في كل شيء تقريباً. إذا وصل الذكاء الإصطناعي إلى هذة المرحلة التى يستطيع فيها تحسين نفسه بنفسه دون تدخل الإنسان، فقد نصبح في موقف لا نمتلك فيه القدرة على فهم أو التحكم بما يفعله. مثل هذا التطور قد يخلق كياناً لا يخضع لأي معايير أخلاقية بشرية، ما قد يهدد الأمن العالمي والبقاء الإنساني. وفي حال وُجد مثل هذا الكائن الرقمي، فهل سيكون من الممكن حقاً التحكم به؟ أم أننا سنكون قد صنعنا كائناً لا نستطيع إحتواءه؟
أنا لا أتحدث عن سيناريوهات أفلام خيال علمي، بل عن واقع يفرض نفسه يوماً بعد يوم. فما الذي سيحدث حين تبدأ الآلة في التفكير بمعزل عن الإنسان؟ وهل يمكن حقاً الوثوق بذكاء بلا ضمير ولا مشاعر؟ وهل نملك أدوات كافية لضمان أن يبقى الذكاء الإصطناعي تحت السيطرة البشرية؟
ورغم كل هذه التحديات، فإن الخوف من الذكاء الإصطناعي لا يعني رفضه، بل يعني إدراك الحاجة إلى تقنينه وتوجيهه. علينا ألا نسمح للتكنولوجيا بأن تتطور بمعزل عن قيمنا الإنسانية، بل يجب أن نضع ضوابط أخلاقية وتشريعية صارمة تضمن أن يكون الذكاء الإصطناعي في خدمة الإنسان، لا العكس. الذكاء الإصطناعي أداة قوية، لكنها مثل أي أداة، قد تكون للبناء أو للهدم، والخيار بأيدينا.
إننا لسنا بحاجة إلى الخوف من الذكاء الإصطناعي بقدر ما نحن بحاجة إلى فهمه، ومُساءلة من يُطوّره، ووضع معايير واضحة تضمن أن يظل في خدمة الإنسان لا في موقع السيطرة عليه. فالتكنولوجيا، في نهاية المطاف، ليست سوى أداة. لقد آن الأوان أن نتحرك فعلياً نحو وضع قوانين وضوابط له، وتشجيع الشفافية، وتعليم الأجيال القادمة كيف تتعامل مع هذا الذكاء الجديد بحكمة ووعي.
فالذكاء بلا ضمير... قد يكون أخطر من الجهل.
المصدر: صدى البلد
كلمات دلالية: الذكاء الاصطناعي التكنولوجيا أمن المعلومات الذکاء الإصطناعی من الذکاء
إقرأ أيضاً:
احتيال شركات الذكاء الاصطناعي يجب أن يتوقف
مع تقدم الذكاء الاصطناعي وتغلغله في حياتنا على نحو متزايد، يبدو من الواضح أنه من غير المحتمل أن يخلق المدينة التكنولوجية الفاضلة ومن غير المرجح أن يتسبب في محو البشرية. النتيجة الأكثر احتمالا هي مكان ما في المنتصف ــ مستقبل يتشكل من خلال الطوارئ، والحلول الوسط، وعلى جانب عظيم من الأهمية، القرارات التي نتخذها الآن حول كيفية تقييد وتوجيه تطور الذكاء الاصطناعي.
باعتبارها الرائدة عالميا في مجال الذكاء الاصطناعي، تضطلع الولايات المتحدة بدور مهم بشكل خاص في تشكيل هذا المستقبل. لكن خطة عمل الذكاء الاصطناعي التي أعلن عنها الرئيس الأمريكي دونالد ترامب مؤخرا بددت الآمال في تعزيز الإشراف الفيدرالي، فاحتضنت بدلا من ذلك نهجا داعما للنمو في تطوير التكنولوجيا. وهذا يجعل التركيز من جانب حكومات الولايات، والمستثمرين، والجمهور الأمريكي على أداة مُـساءلة أقل إخضاعا للمناقشة، ألا وهي حوكمة الشركات ضرورة أشد إلحاحا. وكما توثق الصحفية كارين هاو في كتابها «إمبراطورية الذكاء الاصطناعي»، فإن الشركات الرائدة في هذا المجال منخرطة بالفعل في المراقبة الجماعية، وهي تستغل عمالها، وتتسبب في تفاقم تغير المناخ. من عجيب المفارقات هنا أن كثيرا منها شركات منفعة عامة (PBCs)، وهي بنية حوكمة يُزعم أنها مصممة لتجنب مثل هذه الانتهاكات وحماية البشرية. ولكن من الواضح أنها لا تعمل على النحو المنشود.
كانت هيكلة شركات الذكاء الاصطناعي على أنها شركات منفعة عامة شكلا ناجحا للغاية من أشكال الغسيل الأخلاقي. فبإرسال إشارات الفضيلة إلى الهيئات التنظيمية وعامة الناس، تخلق هذه الشركات قشرة من المساءلة تسمح لها بتجنب المزيد من الرقابة الجهازية على ممارساتها اليومية، والتي تظل مبهمة وربما ضارة. على سبيل المثال، تُـعَـد xAI التي يملكها إيلون ماسك شركة منفعة عامة تتمثل مهمتها المعلنة في «فهم الكون». لكن تصرفات الشركة ــ من بناء كمبيوتر خارق مُـلَـوِّث في السر بالقرب من حي تقطنه أغلبية من السود في ممفيس بولاية تينيسي، إلى إنشاء روبوت محادثة يشيد بهتلر ــ تُظهر قدرا مزعجا بشدة من عدم الاكتراث بالشفافية، والرقابة الأخلاقية، والمجتمعات المتضررة.
تُعد شركات المنفعة العامة أداة واعدة لتمكين الشركات من خدمة الصالح العام مع السعي إلى تحقيق الربح في الوقت ذاته. لكن هذا النموذج، في هيئته الحالية ــ خاصة في ظل قانون ولاية ديلاوير، الولاية التي تتخذها معظم الشركات العامة الأمريكية مقرا لها ــ مليء بالثغرات وأدوات الإنفاذ الضعيفة، وهو بالتالي عاجز عن توفير الحواجز اللازمة لحماية تطوير الذكاء الاصطناعي. لمنع النتائج الضارة، وتحسين الرقابة، وضمان حرص الشركات على دمج المصلحة العامة في مبادئها التشغيلية، يتعين على المشرعين على مستوى الولايات، والمستثمرين، وعامة الناس المطالبة بإعادة صياغة شركات المنفعة العامة وتعزيز قدراتها. من غير الممكن تقييم الشركات أو مساءلتها في غياب أهداف واضحة، ومحددة زمنيا، وقابلة للقياس الكمي. لنتأمل هنا كيف تعتمد شركات المنفعة العامة في قطاع الذكاء الاصطناعي على بيانات منافع شاملة وغير محددة يُزعَم أنها توجه العمليات. تعلن شركة OpenAI أن هدفها هو «ضمان أن يعود الذكاء الاصطناعي العام بالفضل على البشرية جمعاء»، بينما تهدف شركة Anthropic إلى «تحقيق أعظم قدر من النتائج الإيجابية لصالح البشرية في الأمد البعيد». المقصود من هذه الطموحات النبيلة الإلهام، لكن غموضها من الممكن أن يستخدم لتبرير أي مسار عمل تقريبا ــ بما في ذلك مسارات تعرض الصالح العام للخطر. لكن قانون ولاية ديلاوير لا يُـلزِم الشركات بتفعيل منفعتها العامة من خلال معايير قابلة للقياس أو تقييمات مستقلة. ورغم أنها تطالب بتقديم تقارير كل سنتين حول أداء المنفعة، فإنها لا تلزم الشركات بإعلان النتائج. بوسع الشركات أن تفي بالتزاماتها ــ أو تهملها ــ خلف الأبواب المغلقة، دون أن يدري عامة الناس شيئا. أما عن الإنفاذ، فبوسع المساهمين نظريا رفع دعوى قضائية إذا اعتقدوا أن مجلس الإدارة فشل في دعم مهمة الشركة في مجال المنفعة العامة. لكن هذا سبيل انتصاف أجوف، لأن الأضرار الناجمة عن الذكاء الاصطناعي تكون منتشرة، وطويلة الأجل، وخارجة عن إرادة المساهمين عادة. ولا يملك أصحاب المصلحة المتضررون ــ مثل المجتمعات المهمشة والمقاولين الذين يتقاضون أجورا زهيدة ــ أي سبل عملية للطعن في المحاكم. وللاضطلاع بدور حقيقي في حوكمة الذكاء الاصطناعي، يجب أن يكون نموذج «شركات المنفعة العامة» أكثر من مجرد درع للسمعة. وهذا يعني تغيير كيفية تعريف «المنفعة العامة»، وحوكمتها، وقياسها، وحمايتها بمرور الوقت. ونظرا لغياب الرقابة الفيدرالية، يجب أن يجري إصلاح هذا الهيكل على مستوى الولايات. يجب إجبار شركات المنفعة العامة على الالتزام بأهداف واضحة، وقابلة للقياس، ومحددة زمنيا، ومكتوبة في وثائقها الإدارية، ومدعومة بسياسات داخلية، ومربوطة بمراجعات الأداء والمكافآت والتقدم الوظيفي. بالنسبة لأي شركة عاملة في مجال الذكاء الاصطناعي، من الممكن أن تشمل هذه الأهداف ضمان سلامة نماذج المؤسسات، والحد من التحيز في مخرجات النماذج، وتقليل البصمة الكربونية الناجمة عن دورات التدريب والنشر، وتنفيذ ممارسات العمل العادلة، وتدريب المهندسين ومديري المنتجات على حقوق الإنسان والأخلاقيات والتصميم التشاركي. الأهداف المحددة بوضوح، وليس التطلعات الغامضة، هي التي ستساعد الشركات على بناء الأساس للمواءمة الداخلية الجديرة بالثقة والمساءلة الخارجية. يجب أيضا إعادة تصور مجالس الإدارة وعملية الإشراف. ينبغي لمجالس الإدارة أن تضم مديرين ذوي خبرة يمكن التحقق منها في أخلاقيات الذكاء الاصطناعي، والسلامة، والأثر الاجتماعي، والاستدامة. يجب أن يكون لكل شركة مسؤول أخلاقي رئيسي يتمتع بتفويض واضح، وسلطة مستقلة، والقدرة على الوصول المباشر إلى مجلس الإدارة. ينبغي لهؤلاء المسؤولين أن يشرفوا على عمليات المراجعة الأخلاقية وأن يُمنحوا سلطة وقف أو إعادة تشكيل خطط المنتجات عند الضرورة. وأخيرا، يجب أن تكون شركات الذكاء الاصطناعي المهيكلة كمؤسسات منفعة عامة مُلـزَمة بنشر تقارير سنوية مفصلة تتضمن بيانات كاملة ومصنفة تتعلق بالسلامة والأمن، والتحيز والإنصاف، والأثر الاجتماعي والبيئي، وحوكمة البيانات. وينبغي لعمليات تدقيق مستقلة ــ يديرها خبراء في الذكاء الاصطناعي، والأخلاقيات، والعلوم البيئية، وحقوق العمال ــ أن تعكف على تقييم صحة هذه البيانات، بالإضافة إلى ممارسات الحوكمة في الشركة وتواؤمها في عموم الأمر مع أهداف المنفعة العامة.
أكدت خطة عمل ترامب للذكاء الاصطناعي على عدم رغبة إدارته في تنظيم هذا القطاع السريع الحركة. ولكن حتى في غياب الإشراف الفيدرالي، بوسع المشرعين على مستوى الولايات، والمستثمرين، وعامة الناس تعزيز حوكمة إدارة الشركات للذكاء الاصطناعي بممارسة الضغوط من أجل إصلاح نموذج شركات المنفعة العامة. يبدو أن عددا متزايدا من قادة التكنولوجيا يعتقدون أن الأخلاقيات أمر اختياري. ويجب على الأمريكيين أن يثبتوا أنهم على خطأ، وإلا فإنهم يتركون التضليل، والتفاوت بين الناس، وإساءة استخدام العمالة، وقوة الشركات غير الخاضعة للرقابة تشكل مستقبل الذكاء الاصطناعي.
كريستوفر ماركيز أستاذ إدارة الأعمال في جامعة كامبريدج ومؤلف كتاب «المستغلون: كيف تقوم الشركات بخصخصة الأرباح وتأميم التكاليف»
خدمة «بروجيكت سنديكيت»