مفتي الجمهورية: نطور تطبيقات تستخدم الذكاء الاصطناعي لرصد الفتاوى الشاذة
تاريخ النشر: 8th, August 2025 GMT
قال الدكتور نظير محمد عياد، مفتي الجمهورية، إنَّ الذكاء الاصطناعي سلاح ذو حدَّين؛ فمن جهةٍ يحمل فرصًا هائلة لتطوير العمل الإفتائي، ومن جهة أخرى قد ينطوي على مخاطر إن أُسيء استخدامه ومن هذا المنطلق، أتعامل معه بوعي وحذر، وأسعى لاستثماره كجسر لتحديث آليات الفتوى وخدمة طالبيها، مع الحفاظ التام على الدور المحوري للمفتي البشري.
وأضاف مفتي الجمهورية، في حوار لصدى البلد، أنه يمكن للذكاء الاصطناعي أن يكون أداة فعَّالة تدعم منظومة الإفتاء وترشيدها، مثل تحليل الكم الكبير من الأسئلة الواردة إلينا وتقديم إجابات أوليَّة سريعة مبنيّة على معلومات شرعية موثوقة.
وتابع مفتي الجمهورية: وقد بدأنا بالفعل خطوات عملية في هذا الصدد عبر إنشاء منصَّات رقميَّة وتطوير تطبيقات تستخدم خوارزميات الذكاء الاصطناعي لرصد أي فتاوى شاذة وتصحيحها قبل انتشارها.
وأشار مفتي الجمهورية، إلى أن رؤيته في هذا الشأن تنطلق من مبدأ أن يكون الذكاء الاصطناعي خادمًا للمفتي لا بديلاً عنه؛ فهو يستطيع توفير البيانات والتحليلات اللازمة لدعم قرار المفتي، بل ويساعدنا في إعادة عرض الأحكام الشرعية بأسلوب عصري مواكب للتطور دون تفريط في الأصالة.
كما أنه أداة مهمَّة لمواجهة سيل المعلومات غير المنضبطة عبر الإنترنت، من خلال فلترة المحتوى المتطرف وإبراز الفتاوى الرشيدة القائمة على الوسطية والاعتدال . باختصار، أرحب بتوظيف الذكاء الاصطناعي في الإفتاء ضمن الضوابط الشرعية، بحيث يبقى العقل البشري والفقه الإنساني هو صاحب القرار الأخير والموجِّه لهذه التقنية.
المصدر: صدى البلد
كلمات دلالية: مفتي الجمهورية الذكاء الاصطناعي خوارزميات الفتاوى الذکاء الاصطناعی مفتی الجمهوریة
إقرأ أيضاً:
الذكاء الاصطناعي ييثير قلق العالم .. ما سبب فرض بعض الدول قيودا على استخدامه؟
- ما هو الذكاء الاصطناعي؟ وكيف يعمل؟ ولماذا يثير قلق البعض؟- الذكاء الاصطناعي التوليدي ما هو وما قدراته؟- الذكاء الاصطناعي بين التقدم المذهل والمخاوف البيئية والأخلاقية
أصبح الذكاء الاصطناعي جزءا متزايدا من حياتنا اليومية خلال العقد الأخير، إذ يستخدم لتخصيص محتوى شبكات التواصل الاجتماعي، والتعرف على الوجوه في صور الهواتف الذكية، وحتى تمهيد الطريق لاكتشافات طبية جديدة.
لكن مع صعود أدوات الذكاء الاصطناعي التوليدي، مثل ChatGPT من OpenAI وMeta AI، تزايدت المخاوف بشأن تأثير هذه التكنولوجيا على البيئة، والقضايا الأخلاقية المرتبطة بها، وكذلك طريقة استخدام البيانات.
الذكاء الاصطناعي هو تقنية تتيح للحواسيب معالجة كميات هائلة من البيانات، والتعرف على الأنماط، وتنفيذ تعليمات محددة بناء على تلك البيانات.
ورغم أن الحواسيب لا تمتلك القدرة على التفكير أو التعاطف أو المنطق كما يفعل البشر، فإن الباحثين طوروا أنظمة تحاكي بعض مهارات الذكاء البشري مثل التعلم واتخاذ القرار.
يستخدم الذكاء الاصطناعي في التنبؤ بما قد يشتري المستخدم عبر الإنترنت، وفي تشغيل المساعدين الصوتيين مثل سيري وأليكسا، كما يوظف في تطوير السيارات ذاتية القيادة.
كذلك، تعتمد منصات مثل فيسبوك وتيك توك على الذكاء الاصطناعي لاختيار المنشورات التي تظهر للمستخدمين، بينما تستعين خدمات مثل Spotify وDeezer به لتوصية الأغاني.
في المجال الطبي، يستخدم الذكاء الاصطناعي للمساعدة في اكتشاف الأورام، وتحليل صور الأشعة، وتسريع عمليات التشخيص، وتحديد علاجات جديدة.
الذكاء الاصطناعي التوليدي هو فرع من الذكاء الاصطناعي يستخدم لإنشاء محتوى جديد يبدو كأنه من صنع الإنسان، يتم ذلك من خلال تعلم أنماط اللغة والصور والموسيقى من بيانات ضخمة مأخوذة من الإنترنت.
تطبيقات مثل ChatGPT وDeepSeek تستخدم لإنشاء نصوص، صور، أكواد برمجية وغيرها، بينما يمكن لتطبيقات مثل Midjourney أو Veo 3 توليد صور وفيديوهات من أوامر نصية بسيطة.
حتى الأغاني يمكن توليدها بتقنيات الذكاء الاصطناعي، وقد ذاع صيت بعضها لدرجة أربكت الجمهور حول ما إذا كانت حقيقية أم لا.
لماذا يثير الذكاء الاصطناعي الجدل؟رغم ما يوفره من إمكانيات هائلة، فإن التوسع السريع في استخدام الذكاء الاصطناعي أثار قلق العديد من الخبراء، حيث حذر صندوق النقد الدولي من أن الذكاء الاصطناعي قد يؤثر على نحو 40% من الوظائف عالميا، مما قد يزيد من الفجوة الاقتصادية.
أما العالم جيفري هينتون، المعروف بلقب “أبو الذكاء الاصطناعي”، فقد عبر عن مخاوفه من أن يؤدي الذكاء الاصطناعي القوي إلى تهديد وجود البشر، وهو رأي لم يشاركه فيه زميله يان ليكون.
كما تثار مخاوف من أن تكرر أنظمة الذكاء الاصطناعي التحيزات المجتمعية مثل العنصرية والتمييز الجنسي، نظرا لأنها تتعلم من بيانات عامة مليئة بهذه الميول.
وقد وقعت حالات مثيرة للجدل مثل تصنيف نظام تابع لفيسبوك رجالا سودا على أنهم “قرود”، واكتشاف تحيز عنصري في خوارزمية قص الصور على تويتر.
رغم تطورها، لا تزال هذه الأنظمة ترتكب أخطاء واضحة، مثل إنشاء صور بأشخاص لديهم عدد غير طبيعي من الأصابع، أو اختراع معلومات غير صحيحة (ما يعرف بـالهلوسة).
شركة آبل على سبيل المثال، أوقفت ميزة ذكاء اصطناعي جديدة بعد تلقي شكاوى من تلخيصات خاطئة لأخبار، شملت اتهاما خاطئا لرجل بأنه انتحر.
الاعتماد المتزايد على الذكاء الاصطناعي في المدارس وأماكن العمل أثار قلقا من سوء الاستخدام، سواء من قبل طلاب يستعينون به لحل واجباتهم، أو موظفين يستخدمونه دون معرفة أرباب العمل.
كما تصاعدت معارضة فنانين وكتاب وموسيقيين، اتهموا شركات تطوير الذكاء الاصطناعي باستخدام أعمالهم لتدريب الأنظمة دون إذن أو تعويض.
ففي أكتوبر 2024، وقع آلاف الفنانين، من بينهم بيورن أولفيوس من فرقة ABBA، والكاتبة جوان هاريس، والممثلة جوليان مور، بيانا وصف الذكاء الاصطناعي بأنه “تهديد كبير وغير عادل” لأرزاقهم.
التأثير البيئي للذكاء الاصطناعيرغم عدم وجود تقدير دقيق لكمية الطاقة التي يستهلكها الذكاء الاصطناعي، تشير بعض التقديرات إلى أن القطاع قد يستهلك قريبا طاقة توازي استهلاك هولندا، فتصنيع رقائق المعالجة القوية وتشغيل مراكز البيانات الضخمة يتطلب كميات هائلة من الكهرباء والمياه.
بعض الشركات الكبرى بدأت في البحث عن حلول لتقليل استهلاك المياه أو إعادة استخدامها، فيما اعتمدت أخرى على أنظمة تبريد بالهواء بدلا من المياه، ومع ذلك، فإن خبراء وناشطين بيئيين أعربوا عن مخاوف من أن يؤثر الذكاء الاصطناعي على موارد المياه العذبة، خصوصا مع تزايد عدد مراكز البيانات.
في فبراير الماضي، حذرت جهات في بريطانيا من أن سعي الحكومة لأن تصبح رائدة عالميا في الذكاء الاصطناعي قد يجهد إمدادات المياه، وفي سبتمبر 2024، أعادت جوجل النظر في خطط إنشاء مركز بيانات في تشيلي بسبب أزمة الجفاف.
القوانين المنظمة للذكاء الاصطناعيبدأت بعض الحكومات بفرض تشريعات تنظم استخدام الذكاء الاصطناعي، الاتحاد الأوروبي مثلا أصدر قانون الذكاء الاصطناعي الذي يقيد استخدام الأنظمة عالية المخاطر في التعليم والرعاية الصحية والانتخابات، ويحظر بعض التطبيقات كليا.
في الصين، يطلب من مطوري الذكاء الاصطناعي حماية بيانات المواطنين وضمان الشفافية، لكنهم خاضعون أيضا لقوانين الرقابة الصارمة، أما في بريطانيا، فقد أعلن رئيس الوزراء كير ستارمر أن بلاده ستختبر وتفهم التكنولوجيا قبل فرض أي تنظيمات.
كما أن الولايات المتحدة والمملكة المتحدة أسستا معاهد لأمان الذكاء الاصطناعي لتقييم المخاطر والنماذج المتقدمة، حيث وقعتا اتفاقا في 2024 للتعاون في تطوير آليات اختبار صارمة، إلا أنهما لم توقعا على إعلان دولي في فبراير 2025 يدعو إلى مقاربة مفتوحة وشاملة ومستدامة للتقنية.
وفي سياق متصل، بدأت عدة دول من بينها بريطانيا بتشديد الرقابة على استخدام الذكاء الاصطناعي في إنتاج الصور العارية المزيفة أو المحتوى المتعلق بإساءة معاملة الأطفال، بعد ارتفاع عدد الحوادث المرتبطة بهذه التطبيقات.