مؤتمر الإفتاء: تجرؤ غير المؤهلين على الفتوى أخطر تهديدات الذكاء الاصطناعي
تاريخ النشر: 13th, August 2025 GMT
ترأس الجلسة الدكتور عبد اللطيف المر أستاذ الصحة العامة بكلية طب الزقازيق والأمين المساعد للمنظمة الإسلامية للعلوم الطبية بالكويت، وأمانة الدكتور محمود البيطار، مدير مركز الاستشراف الإفتائي بدار الإفتاء المصرية، وذلك خلال فعاليات اليوم الثاني للمؤتمر العالمي العاشر للإفتاء.
واستهدفت الورشة بحث سُبل تطوير الأداء الإفتائي في ضوء التحولات التقنية المتسارعة وتعزيز قدرات المفتي على التعامل مع القضايا المستحدثة الناتجة عن التقدم العلمي والتكنولوجي، إلى جانب مناقشة آليات وضع تصورات مستقبلية تواكب المستجدات وتحافظ على ثوابت الفتوى وأصالتها، كما تناولت موضوعات الطباعة ثلاثية الأبعاد والطباعة الحيوية والتعديل الجيني وما تثيره من إشكالات شرعية وأخلاقية.
شهدت الورشة حضورَ عدد من أعضاء هيئة التدريس من الجامعات المصرية، ووعاظ من مجمع البحوث الإسلامية، وأمناء الفتوى وباحثين شرعيين بدار الإفتاء المصرية..
بدايةً، أوضح الدكتور عبد اللطيف المر، أستاذ الصحة العامة بكلية طب الزقازيق والأمين المساعد للمنظمة الإسلامية للعلوم الطبية بالكويت، أنَّ صناعة المحتوى على الإنترنت عملية تجارية في المقام الأول، وأن الذكاء الاصطناعي أصبح تعلمه واجبًا، وأثنى على مبادرة فضيلة شيخ الأزهر الخاصة بإنشاء مركز للذكاء الاصطناعي، مشيرًا إلى أن دقة التشخيص الطبي عبر الذكاء الاصطناعي تجاوزت تسعين بالمائة، مع ضرورة بقاء القيادة للعنصر البشري.
من جانبه، أكَّد الدكتور محمود البيطار، مدير مركز الاستشراف الإفتائي بدار الإفتاء المصرية، أن الواقع الديني يشهد وقائع متسارعة، وأن التحول الذي يطرأ على المؤسسات يحتم عليها مراجعة مواقفها وتبني أسلوب الرصد الاستباقي بما يسمح بمواقف فقهية تسبق الأحداث.
وأوضح أن عمل المركز يقوم على بناء مهارة فقهية للمفتي تمكِّنه من الاستعداد لما قد يتولد من قضايا إفتائية قبل حدوثها، مستشهدًا بما فعله الإمام أبو حنيفة من التهيؤ للمسائل قبل وقوعها، وأضاف أن المركز جاء على غير مثال سابق من دُور الإفتاء الأخرى، ويستهدف طريقة استشراف السؤال قبل طرحه، ويتناول قضايا مثل السيارات ذاتية القيادة والشرائح الذكية وتقنية النانو وغيرها من النوازل.
وأشار الدكتور عواد محمود سالم، أستاذ العقيدة والفلسفة بجامعة الأزهر، إلى أن النهضة لا تقوم إلا على الأصالة والمعاصرة معًا، وأن العقيدة هي الفقه الأكبر، مستشهدًا بقول الإمام النَّسَفي: حقائق الأشياء ثابتة والعلم بها متحقق، داعيًا إلى مواجهة التشكيك المعاصر في الثوابت.
وفي السياق نفسه، أوضح الدكتور محمود الهواري، الأمين المساعد لشؤون الوعظ بمجمع البحوث الإسلامية، أن الذكاء الاصطناعي اقتحم حياتنا في كل المجالات، وأنه فرصة وتهديد في الوقت ذاته، مبينًا أن أخطر تهديداته السيولة القيمية وتجرؤ غير المؤهلين على الفتوى؛ بل صدور فتاوى عبر الذكاء الاصطناعي يعرضها أصحابها على لجان الفتوى لتوثيقها، وحذر من فقدان الهُوية إذا لم نضبط الجانب الأخلاقي ونعيد فهم الحريات في التعامل مع التقنية.
كما شدد الدكتور محمد الورداني، أستاذ الإعلام المساعد بجامعة الأزهر ومدير المركز الإعلامي بمجمع البحوث الإسلامية على أهمية الإعداد البشري المسبَّق للتعامل مع الأدوات التقنية، وأننا لم نتجاوز بعدُ مرحلة رد الفعل على النوازل، بينما الغرب يتوقعها قبل وقوعها.
من جانبه، دعا الدكتور رضا محمود السعيد، أستاذ الدعوة الإسلامية بجامعة المنصورة، إلى التكامل بين العلوم لضمان الفتوى المنضبطة والتنبه لمخاطر الاعتماد الكامل على الذكاء الاصطناعي، وحذَّر من إصدار الفتاوى قبل وقوع النوازل، مع التفريق بين الحكم الشرعي والفتوى، مؤكدًا أن الأداة التقنية يجب أن تظل وسيلة مساعدة وليست أصيلة.
فيما أشار الدكتور محمد مصطفى شعيب رئيس قسم الأبحاث بالمجمع الفقهي بجدَّة إلى أن الذكاء الاصطناعي يجمع المعلومات بلا تمحيص، مثل حاطب الليل، وقد ينقل أخطاءً وسرقات علمية، داعيًا إلى تكوين المفتين شرعيًّا وتقنيًّا والبحث وراء المعلومات وتغذية الذكاء الاصطناعي بالمعطيات الصحيحة.
وتساءل الدكتور مصطفى محمد بحيري، أستاذ العقيدة والفلسفة بكلية أصول الدين بالمنصورة حول مدى الخوف من الذكاء الاصطناعي، وشدَّد على ضرورة دخول المسلمين في مجالاته العلمية بقوة، مع وضع الضوابط الشرعية والأخلاقية، مشيرًا إلى فوائده ومخاطره على حدٍّ سواء، مثل وفرة المعلومات مقابل عدم قدرته على التمييز بين الشاذ والصحيح.
وأكد الدكتور محسن عبد الواحد سيد، مدرس العقيدة والفلسفة بجامعة الأزهر أن الذكاء الاصطناعي مجرد محرك بحث وأننا نفتقر إلى مثل تلك المحركات الإسلامية التي يمكن الاعتماد عليها.
وفي مداخلة له كشف الدكتور محمد وسام أمين الفتوى بدار الإفتاء المصرية أنه استعان بالذكاء الاصطناعي في بعض المسائل، ووجد أن كثيرًا من النصوص محرفة أو منسوبة لغير قائليها ما يستلزم تغذيته بالمعطيات الصحيحة.
وشدد الدكتور محمود صابر عرفات مدرس القانون المساعد بجامعة عين شمس على ضرورة وضع عقوبات على الشخص الافتراضي أسوةً بالطبيعي. وفي مداخلة للدكتور عمرو الشال، رئيس قسم الأبحاث الشرعية بدار الإفتاء المصرية، أكد أن المراجعة والتصحيح والمعالجة للمعلومات من أهم مجالات الاشتباك مع الذكاء الاصطناعي، وأن التغذية المعرفية يجب أن تكون من مصادرنا نحن.
في حين أشار الدكتور علي السعيد، مدير إدارة التدريب بدار الإفتاء المصرية، إلى أهمية تعلم البحث في المصادر وعدم الاكتفاء باستخدام الذكاء الاصطناعي، كما أوضحت الباحثة الشرعية بدار الإفتاء المصرية الأستاذة وسام الخولي أن العقل البشري سيظل موجهًا للذكاء الاصطناعي الذي تنتجه شركات متنافسة؛ ما يستدعي التنبه لمثل تلك المخاطر.
المصدر: صدى البلد
كلمات دلالية: صناعة المحتوى الإنترنت الذكاء الاصطناعي بدار الإفتاء المصریة أن الذکاء الاصطناعی الدکتور محمود
إقرأ أيضاً:
هل اقتربنا من سيناريوهات انفجار الذكاء الاصطناعي؟
انتقل الذكاء الاصطناعي من مجرد أداة تُستخدم في الترجمة وإعداد النصوص وتحليل البيانات إلى قوة صاعدة تفرض نفسها في برامج الهندسة والصناعة والطب وحتى الإعلام والسياسة والأمن.
ولم يعد النقاش الحالي يتناول قضايا الذكاء الاصطناعي وقدرته على أداء المهام التقليدية من ترجمة وتحليل للبيانات وتلخيص للنصوص، وإنما أصبح التركيز يدور حول الفرضيات التي تقول إن هذا المجال سيدخل في مرحلة "الانفجار الذاتي" أي إعادة برمجة ذاته عبر تطوير خوارزميات جديدة من دون الاعتماد على المبرمج البشري.
اقرأ أيضا list of 2 itemslist 1 of 2لماذا تدعم دول جزر المحيط الهادي إسرائيل؟list 2 of 2أبرز ما نشرته مراكز الدراسات والأبحاث في أسبوعend of listوبشأن الأبحاث والتقارير التي تناقش فرضية الذكاء الاصطناعي ودخوله قريبا في مرحلة جديدة تتيح له أن يصبح كيانا مستقلا قادرا على إعادة تصميم ذاته، نشر موقع مركز الجزيرة للدراسات ورقة بحثية تحت عنوان "الذكاء الاصطناعي وإعادة البرمجة الذاتية: سيناريوهات الانفجار الذكي".
الورقة البحثية -التي أعدها الدكتور خالد وليد محمود رئيس قسم الإعلام والاتصال في معهد الدوحة للدراسات العليا- ناقشت جذور فرضية الانفجار الذكي للذكاء الاصطناعي، ومن يتحكم في هذه القوة، وإشكالية الاستقلال والاعتماد على الذات.
في أبريل/نيسان 2025، نشر مشروع "مستقبل الذكاء الاصطناعي" تقريرا رسم صورة مذهلة عن الذكاء الاصطناعي مفاده أنه خلال عامين سيكون قادرا على القيام بدور المهندس، إذ يمكن أن يعتمد على ذاته في إعادة تصميم بنيته الداخلية.
وتفاعلت وسائل الإعلام العالمية مع هذا التقرير، حيث أشارت مجلة " ذا نيويوركر" (the new Yorker) إلى مسارين متباينين حول مستقبل الذكاء الاصطناعي:
الأول: يرجح أن يكون له مستقبل يفوق الإنسان في جميع المجالات. أما الاحتمال الثاني: فيفترض أن التحول لن يكون سريعا، لاعتماده على محدودية الموارد وتأجيل الحوكمة. إعلانوفي الوقت الذي وصفت فيه بعض وسائل الإعلام العالمية هذه التقارير والأبحاث بأنها تبقى في سياق الفرضيات المحملة بالجدلية، فإنها دعت إلى صياغة سياسات استباقية للتعامل مع احتمالية التطور الذي يفوق التدخل البشري.
ويعود جذور مفهوم "الانفجار الذكي" إلى عام 1965، حين نشر عالم الرياضيات البريطاني آي. جي. غود (I.j. good) مقالا بعنوان: "تخمينات حول أول آلة فائقة الذكاء"، تنبّأ فيه بأن أول آلة فائقة الذكاء ستتمكن من تحسين تصميمها الذاتي باستمرار حتى تصل إلى مرحلة يصعب على البشر اللحاق بها.
وقد تبين أن هذه الرؤية التي بدت حينها أقرب إلى الخيال العلمي أو التأمل الفلسفي، تحولت لاحقا إلى فرضية مركزية في أدبيات الذكاء الاصطناعي والفلسفة العقلية، وخرجت من نطاق النقاشات الأكاديمية إلى مجالات التطبيق والممارسة الفعلية.
وبعد فكرة العالم البريطاني، جاء الفيلسوف السويدي، نيك بوستروم (Nick Bostrom)، ليُطوّرها بشكل منهجي في كتابه: "الذكاء الفائق: المسارات، المخاطر، الإستراتيجيات"، حيث وضع فيه سيناريوهات مفصلة للانفجار الذكي، محذرا من أن لحظة الوصول إلى ذكاء فائق قد تكون أسوأ ما تواجهه البشرية.
من جانب آخر، وجّه باحثون -مثل غاري ماركوس (Gary Marcus) وأرفيند نارايانان (Arvind Narayanan)- انتقادات حادة لفكرة الانفجار الذكي، معتبرين أن الحديث عن قفزة مفاجئة نحو ذكاء فائق، يتجاهل القيود التقنية والمادية الصارمة التي تحكم تطور الخوارزميات.
ويجادل هذا الفريق بأن الذكاء الاصطناعي، مهما بلغت قدراته، سيظل قائما على بيانات ومعالجات مادية، وأنه لا يمكن فصله عن القيود البشرية المتعلقة بالطاقة والموارد والتكلفة.
وعلى الصعيد العملي، أصبح "الذكاء الفائق" جزءا من إستراتيجيات الحكومات الكبرى، فالولايات المتحدة والصين والاتحاد الأوروبي يتعاملون مع هذه الأفكار بوصفها سيناريو واقعيا لا محالة ينبغي الاستعداد له، وليس قصة من الخيال العلمي أو الأفكار الفلسفية.
مشكلة القدرة على الاستقلاليةورغم الإشارات القوية التي تصب في اتجاه فرضية الانفجار الذاتي للذكاء الاصطناعي، فإن الوقت الراهن يكشف أن الحاجة ما زالت قائمة للاعتماد على البشر، وأن الأنظمة الذكية لا تزال غير قادرة على الاعتماد على ذاتها.
فالنماذج الأكثر تقدما في الذكاء الاصطناعي اليوم مثل "تشات جي بي تي" (ChatGPT)، و"جيميني" (Gemini)، و"كلود" (Claude) كلها تعمل ضمن إطار بنية تحتية بشرية معقدة وضخمة إلى حدّ مذهل، إذ تحتاج إلى ملايين من المعالجات الفائقة موزعة على مراكز بيانات عالمية، تستهلك وحدها طاقة كهربائية تعادل استهلاك مدن صغيرة أو حتى متوسطة الحجم.
وبالإضافة إلى ذلك تعتمد هذه الأنظمة على شبكات إنترنت عالية الكفاءة، وأنظمة تبريد هائلة للحفاظ على استقرار الأجهزة والوسائل اللوجيستية، وسلسلة طويلة من الخبراء والمهندسين الذين يشرفون على كل تفصيل، ويقومون بالمراقبة والتنظيم والتدخل.
ورغم كل ذلك فإن الباحثين يقولون إن المؤشرات تثبت وجود ملامح قدرات على إعادة البرمجة الذاتية، حيث ظهرت برامج تستطيع تعديل بنيتها الداخلية وتوليد خوارزميات وأكواد جديدة لتحسين الأداء.
إعلانوبناء على ذلك يمكن القول إن العالم يقف عند مفارقة لافتة للانتباه، وهي الأنظمة الحالية قوية وأصبحت تفوق توقعات العقد الماضي، بيد أنها في الوقت ذاته لا تزال هشة وتعتمد كليا على البشر.
من يمتلك الذكاء الفائق؟وانطلاقا من فرضية أن نظاما قادرا على تطوير نفسه قد ظهر بالفعل، فإن الإشكال الجيوسياسي سيزيد من التعقيد المتعلق بالذكاء الاصطناعي الخارق.
فمن سيملك التحكم في هذا النظام؟ هل تكون الولايات المتحدة عبر شبكات وادي السيليكون التي تسيطر على البنية التحتية للذكاء الاصطناعي وتملك رأس المال الثقافي والتمويلي؟ أم ستكون الصين التي تراهن على الدمج العميق بين الدولة والجيش والشركات، وتستثمر مواردها الهائلة لتصبح صاحبة الريادة؟
أوروبا بدورها اتخذت مسارا تشريعيا عام 2014، عبر قانون الاتحاد الأوروبي للذكاء الاصطناعي، الذي وضع قواعد صارمة للشفافية والأمان والنزاهة.
وعلى مستوى الشرق الأوسط، فقد ظهرت إستراتيجيات السيادة الرقمية التي تبنتها دولتا قطر والإمارات إدراكا بأن من يمتلك البيات يكون له حضور في المشهد السياسي والعسكري في المستقبل.
الأبعاد الأخلاقية وسيناريوهات المستقبلوفي سياق المخاوف، تطرح الأبعاد الأخلاقية لمسألة الذكاء الخارق، لأنه قد يتحول إلى صناديق سوداء يجهل البشر ما يجري بداخلها، فثورة الإنترنت التي غيرت مفهوم الزمان والمكان، لم تسلب الإنسان عقله ولم تغير دوره كفاعل معرفي، أما الذكاء الاصطناعي فإنه بهذه الفرضيات والتنبؤات يتجه إلى أن يحل محل العقل.
وفي هذا السياق الذي يشكل مخاطر وقيودا على عقل الإنسان، بدأت الأمم المتحدة في مناقشة إمكانية صياغة "معاهدة للذكاء الاصطناعي" شبيهة بمعاهدة حظر انتشار الأسلحة النووية على أساس أن المخاطر لا تقتصر على دولة أو شركة واحدة بل تمس الإنسانية كلها.
وحول المستقبل، هنالك احتمالات أهمها:
السيناريو التفاؤلي: الذي يقول إن الذكاء الاصطناعي سيكون شريكا حقيقيا وليس مجرد أداة مساعدة.
أما السيناريو التشاؤمي: فيرى أنه سيفوق الإنسان وينافسه في سوق العمل ويقضي على ملايين الوظائف.
وتفرض الثورة الحالية على البشرية أن تكون أكثر جرأة في التفكير لمواجهة الذكاء الاصطناعي، لأن التجارب التاريخية تقول إن التحولات الكبرى لا تنتظر البشر حتى يستعدوا لها.