الذكاء الاصطناعي يُعد من أبرز إنجازات العصر الحديث، وثمرةً من ثمار العقل الذي أودعه الله في الإنسان، قال تعالى: ﴿هُوَ الَّذِي خَلَقَ لَكُمْ مَا فِي الْأَرْضِ جَمِيعًا﴾ [البقرة: 29]. فهو تسخير إلهي لخدمة البشر، إذا استُعمل في الخير وضُبط بضوابط الشرع.

مراقبة الموظفين بالذكاء الاصطناعي

أكدت دار الإفتاء المصرية أن استخدام تقنيات الذكاء الاصطناعي في بيئة العمل لا حرج فيه شرعًا إذا اقتصر على الأغراض المشروعة، مثل متابعة المهام، وضبط أوقات الدوام، وحماية البيانات، بشرط ألا يتجاوز ذلك نطاق العمل.

أما تتبع خصوصيات الموظفين أو مراقبة حياتهم الشخصية خارج إطار الوظيفة، فهو حرام شرعًا ومجرَّم قانونًا، لما فيه من انتهاك للخصوصيات والتجسس على الناس وتتبع عوراتهم، وهو مما نهى عنه الإسلام بشدة.


ضوابط شرعية لاستخدام الذكاء الاصطناعي في العملالاستخدام المباح للذكاء الاصطناعي يجب أن يلتزم بعدة ضوابط، أهمها:

إبلاغ الموظفين مسبقًا بوجود رقابة تحقيقًا للشفافية.

أن يقتصر النظام على نطاق العمل دون التعدي على الحياة الخاصة.

ألا يتجاوز القدر الضروري لتحقيق مصالح العمل.


وتؤكد القاعدة الشرعية أن "للوسائل أحكام المقاصد"، أي أن الوسيلة تأخذ حكم الغاية التي استُعملت من أجلها.


القانون  المصري يحمي خصوصية الموظفين

قانون حماية البيانات الشخصية رقم 151 لسنة 2020 شدد على ضرورة موافقة الفرد الصريحة قبل جمع أو معالجة بياناته، وعدم استخدامها إلا في الغرض المعلن. كما ألزم المؤسسات بتعيين مسؤول لحماية البيانات وصيانتها من أي إفشاء أو استغلال.

وفي “الميثاق المصري للذكاء الاصطناعي المسؤول” الصادر عام 2023، أكدت الدولة أن جميع مراحل عمل أنظمة الذكاء الاصطناعي يجب أن تخضع للقوانين المصرية، خاصة قوانين حماية البيانات ومكافحة الجرائم الإلكترونية.


الشرع يحرم التجسس وتتبع العورات

قال تعالى: ﴿وَلَا تَجَسَّسُواْ﴾ [الحجرات: 12]، ونهى النبي ﷺ عن التتبع والتسمع على الناس، فقال: «إياكم والظن، فإن الظن أكذب الحديث، ولا تحسسوا، ولا تجسسوا...» رواه البخاري ومسلم.
كما توعَّد الرسول ﷺ من يتجسس على الناس بالفضيحة، فقال: «من طلب عورة أخيه المسلم طلب الله عورته حتى يفضحه في بيته».

الحياة الخاصة مصونة لا تُمس

أكد الدستور المصري في مادته رقم (57) أن الحياة الخاصة للمواطنين مصونة لا تُمس، وللمراسلات والمكالمات والاتصالات حرمة لا يجوز انتهاكها إلا بأمر قضائي مسبب.

يجوز استخدام تقنيات الذكاء الاصطناعي في متابعة العمل إذا كان ذلك في حدود المصلحة العامة، أما التعدي على خصوصيات الأفراد خارج نطاق الوظيفة فهو حرام شرعًا ومجرَّم قانونًا، لأن الإسلام كما يحث على الأمانة في العمل، يحفظ أيضًا كرامة الإنسان وحرمة حياته الخاصة.

المصدر: بوابة الوفد

كلمات دلالية: الذكاء الاصطناعي الذكاء الاصطناعى الإفتاء الذکاء الاصطناعی

إقرأ أيضاً:

كيف أصبح الذكاء الاصطناعي المهندس الحقيقي لبيئة العمل الحديثة؟

في الوقت الذي تتسارع فيه الشركات عالميًا لتبني تقنيات الذكاء الاصطناعي التوليدي (Gen AI)، يبرز خطأ جوهري يهدد فعالية هذه التحولات: إهمال "تدريب" الأنظمة كما يُدرَّب الموظفون.
فبينما تستثمر المؤسسات مبالغ ضخمة في إعداد كوادرها البشرية، تتعامل مع نماذج اللغة الكبيرة (LLMs) على أنها أدوات جاهزة للاستخدام، لا تتطلب فهماً عميقاً أو توجيهاً دقيقاً.
غير أن هذا النهج لا يُعد مجرد خطأ إداري، بل يمثل مخاطرة استراتيجية حقيقية. فوفقاً لتقارير عامي 2024 و2025، انتقل الذكاء الاصطناعي من مرحلة التجريب إلى مرحلة التشغيل الفعلي، حيث سجّل أكثر من ثلث الشركات حول العالم ارتفاعاً ملحوظاً في معدلات الاستخدام والقبول الداخلي.

الذكاء الاصطناعي كائن تفاعلي يحتاج حوكمة
الذكاء الاصطناعي التوليدي ليس مجرد برنامج ثابت، بل منظومة احتمالية وتفاعلية تتطور مع الاستخدام وتتغير بمرور الوقت. وإذا تُرك دون إشراف أو تحديث مستمر، تبدأ النماذج في الانحراف التدريجي، وهي الظاهرة المعروفة بـ"انحراف النموذج" (Model Drift)، مما يؤدي إلى إنتاج معلومات مضللة أو غير دقيقة.
هذه النماذج لا تدرك ثقافة شركتك أو لوائحها التنظيمية ما لم تُدرَّب عليها صراحة. قد تُبدع في نظم شعر شكسبيري، لكنها لن تميز بين سياسة موارد بشرية وبند قانوني دون توجيه واضح. ولهذا السبب بدأت الهيئات التنظيمية حول العالم بفرض معايير صارمة لحوكمة الذكاء الاصطناعي، بعدما تبين أن هذه الأنظمة قادرة على التخيل، أو التضليل، أو حتى تسريب البيانات في حال غياب الضوابط والرقابة.

خسائر حقيقية وسمعة على المحك
الآثار السلبية للذكاء الاصطناعي لا تبقى محصورة في المختبرات، بل تمتد مباشرة إلى الواقع العملي:
* مسؤولية قانونية: خسرت Air Canada قضية بعد أن قدّم روبوتها للعملاء معلومات غير صحيحة، وأقرت المحكمة بأن الشركة مسؤولة قانونيًا عن ما يقوله نظامها الذكي.
* هلوسات محرجة: صحف أميركية كبرى نشرت في عام 2025 قوائم كتب غير موجودة، بعد اعتماد أحد الكتّاب على الذكاء الاصطناعي دون التحقق من صحة المعلومات.
* تحيّز في التوظيف: أول تسوية قانونية تتعلق بتمييز ناتج عن خوارزمية ذكاء اصطناعي كشفت أن النظام استبعد تلقائيًا المتقدمين الأكبر سنًا.
* تسرب معلومات: موظفون في Samsung نسخوا شيفرات سرية في ChatGPT، ما دفع الشركة إلى حظر استخدام الأدوات العامة مؤقتًا.
الخلاصة واضحة: ذكاء اصطناعي بلا تدريب ولا حوكمة هو وصفة مؤكدة لكارثة قانونية وأمنية.

الذكاء الاصطناعي.. الموظف الجديد
المنظمات الذكية باتت تتعامل مع الذكاء الاصطناعي بعقلية جديدة: لا تُطلق النموذج إلى العمل مباشرة، بل تُدرّبه كما تُدرّب الموظف.
ابدأ بوصف وظيفي دقيق يحدد دوره بوضوح، ثم درّبه على المهام والسياقات الخاصة ببيئتك التشغيلية، وراقب أداءه باستمرار، مع تقييم النتائج وتحديث النموذج دوريًا لضمان الدقة والاتساق مع أهداف المؤسسة.
* تحديد الدور: عرّف بوضوح مهام النموذج وحدود صلاحياته. فمثلاً، يمكن للمساعد القانوني تلخيص العقود وتحليلها، لكنه لا يملك صلاحية إصدار أحكام نهائية أو قرارات ملزمة.
* التدريب الموجّه: استخدم تقنيات مثل التوليد المعزز بالاسترجاع (RAG) لجعل النموذج يعتمد على بيانات الشركة الموثوقة، مما يقلل من احتمالية الهلوسة ويعزز الدقة في المخرجات.
* المحاكاة قبل الإطلاق: تجنّب اختبار النموذج مباشرة على العملاء. فقد طوّرت Morgan Stanley نظام تقييم داخلي لمساعدها المعتمد على GPT-4، وتمت مراجعة الإجابات بشريًا قبل الإطلاق، ما رفع معدل الاعتماد إلى أكثر من 98٪.
* الإشراف المشترك: ضمّ فرق الأمن، والامتثال، والمستخدمين، والمصممين في عملية التقييم وصياغة الضوابط، لضمان توازن الأداء بين الكفاءة والامتثال.

قد يهمك أيضا.. كيف يقود الذكاء الاصطناعي نجاح المشاريع الرقمية ويضاعف أرباحها؟

التدريب لا يتوقف عند الإطلاق
الذكاء الاصطناعي يشبه الموظف الجديد: التعلم الفعلي يبدأ مع ممارسة العمل.
لذلك، يجب وضع مراقبة دقيقة للمخرجات، ومؤشرات أداء واضحة، وقنوات لتلقي ملاحظات المستخدمين، إلى جانب تدقيق دوري للتأكد من التزام النظام بالمعايير الأخلاقية والفنية.
حتى مرحلة الإيقاف أو الاستبدال تحتاج إلى تخطيط مسبق، عبر نقل المعرفة والتحديثات إلى النماذج الجديدة، كما يحدث عند انتقال الموظفين بين المناصب لضمان استمرارية الأداء والكفاءة.

الوقت ليس في صالح المتأخرين
الذكاء الاصطناعي لم يعد رفاهية أو مشروعًا تجريبيًا؛ أصبح جزءًا أساسيًا من أنظمة خدمة العملاء، والدعم الفني، والتحليل المالي، واتخاذ القرار الإداري.
شركات كبرى مثل Morgan Stanley وBank of America تستخدمه داخليًا لتعزيز كفاءة الموظفين وتقليل الأخطاء، بينما تشير تقارير إلى أن ثلث المؤسسات التي تعتمد على الذكاء الاصطناعي لا تطبق حتى الآن إجراءات أمان أساسية، ما يفتح المجال لـ"الذكاء الاصطناعي الظلي" وتسرب البيانات.
في الوقت نفسه، الموظفون الجدد في عصر الذكاء الاصطناعي يطالبون بالمزيد: الشفافية، إمكانية تتبع قرارات الأنظمة، والمشاركة في تحسين الأدوات. الشركات التي توفر هذه البيئة تتقدم بخطوات واضحة على منافسيها.

محتوى مشابه.. الذكاء الاصطناعي يعزز إنتاجية العمالة اليدوية

ولادة وظائف جديدة داخل الشركات
مع تزايد الاعتماد على الذكاء الاصطناعي، ظهرت مناصب جديدة مثل مدير تمكين الذكاء الاصطناعي (AI Enablement Manager) وخبير عمليات PromptOps، الذين يشرفون على النماذج، ومصادر البيانات، والتحديثات المستمرة.
حتى مايكروسوفت اعتمدت هذا النهج في مشروع Copilot، بفرق متخصصة للحوكمة، ومراكز تميّز، ومناهج تشغيل دقيقة.
هؤلاء هم ببساطة "المعلمون الجدد" لعصر الذكاء الاصطناعي، الذين يضمنون أن النماذج لا تعمل فقط، بل تعمل بشكل صحيح وآمن.

تعرف على.. قطاع التأمين في عصر الذكاء الاصطناعي

خطة واقعية للانطلاق الآمن
قبل إدخال أي مساعد ذكاء اصطناعي إلى بيئة العمل، على المؤسسات أن تبدأ بخطوات عملية:
* كتابة وصف وظيفي واضح للنموذج.
* ربطه بمصادر بيانات آمنة ومحددة الصلاحيات (RAG / MCP).
* اختبار شامل قبل الإطلاق.
* تطبيق ضوابط الحماية (تصفية المحتوى، إخفاء البيانات، تتبع الاستخدام).
* إنشاء آليات لتلقي الملاحظات والتحليل الأسبوعي.
* مراجعات دورية وتحديثات مدروسة ربع سنوية.
في المستقبل القريب، لن يكون الموظف بمفرده في المكتب، بل سيكون إلى جانبه "زميل رقمي" يعمل معه جنبًا إلى جنب.
الشركات التي تتعامل مع هذه النماذج كأعضاء فريق حقيقيين، يمكن تدريبهم، تطويرهم، ومحاسبتهم، هي التي ستتقدم بسرعة، بأمان، وبثقة نحو المستقبل.
الذكاء الاصطناعي لا يحتاج فقط إلى بيانات ومعالجات، بل إلى توجيه، هدف، وخطة نمو واضحة.
من يفهم هذه المعادلة، سيحوّل الضجيج حول الذكاء الاصطناعي إلى قيمة مستدامة وحقيقية.

أسامة عثمان (أبوظبي)

أخبار ذات صلة "البيئة - أبوظبي" تؤكد أهمية الذكاء الاصطناعي في إدارة النفايات اختبار رياضيات بسيط يربك "GPT-5" ويحرج OpenAI!

مقالات مشابهة

  • بين الذكاء الاصطناعي والواقع.. سامسونج تكشف سر Galaxy XR
  • كاسبرسكي: 87% من الموظفين في مصر يستخدمون الذكاء الاصطناعي
  • فتاوى وأحكام| حكم استخدام الذكاء الاصطناعي في مراقبة الموظفين.. وتكرار السورة نفسها بعد الفاتحة في الصلاة.. وما الحكمة من سؤال الله الملائكة عن عباده؟
  • القهوة البرازيلية مهددة بسبب إزالة الغابات على نطاق واسع
  • حكم استخدام الذكاء الاصطناعي في مراقبة الموظفين
  • إلى من يهمهم الأمر: الذكاء الاصطناعي يحرف الأخبار على نطاق واسع
  • عائشة غابان.. مذيعة مولدة بالذكاء الاصطناعي تقدم برنامجا وثائقيا على شاشة بريطانية
  • مذيعة بريطانية مولدة بالذكاء الاصطناعي تقدم وثائقياً جديداً
  • كيف أصبح الذكاء الاصطناعي المهندس الحقيقي لبيئة العمل الحديثة؟