د. محمد بشاري يكتب: الذكاء الاصطناعي .. وسيلة مساعدة أم سلطة بديلة
تاريخ النشر: 12th, May 2025 GMT
إنّ النّاظر بعين البصيرة في حركة الواقع المعاصر، ليُدرك بلا عناء أنّنا إزاء تحوّل حضاريّ غير مسبوق، بلغ من التّعقيد ما جعل أدوات العقل البشريّ الكلاسيكيّة عاجزةً عن ملاحقة إيقاعه المتسارع.
ولعلّ من أبرز مظاهر هذا التّحوّل ما يُعرف اليوم بتقنيات الذّكاء الاصطناعيّ، لا سيّما ما اصطلح عليه أهل الصناعة بـ “النّظم الخبيرة”، التي أُنيط بها تقليد العقل البشريّ في التّحليل والتّصنيف والاستنتاج.
غير أنّ الفقيه الأصوليّ، إذا ما استحضر الأصول التي عليها مدار التّكليف والاجتهاد، يجد نفسه مدفوعًا إلى التّمييز بين الوسائل والغايات، على ما قرّره الإمام الشاطبي في “الموافقات” حين بيّن أنّ الوسائل تأخذ حكم مقاصدها، ولا يُعتبر بها في ذاتها إلّا من حيث ما تفضي إليه. فليست النّظم الخبيرة غايةً في ذاتها، بل هي من جملة الوسائل التي تخضع لسلطان المقاصد وضوابط الشّرع. وهي لذلك، لا تُسلّم لها زمام النّظر، ولا يُستبدل بها اجتهاد المجتهدين، بل تُجعل خادمة لما يُحصّله النّظر البشريّ المنضبط، لا منافسة له ولا قاضية عليه.
وإذ ننظر في طبيعة هذه النّظم، نجدها تشتغل وفق معادلات رياضيّة خالية من الوعي المقاصديّ، عاجزة عن إدراك روح النّص ومآلاته. فهي قد تحسن التّصنيف العدديّ والتّرابط الصّوريّ، غير أنّها تفتقر إلى ملَكة الاجتهاد الذي يُقدّر الألفاظ بمقاصدها، ويربط السّياقات بتاريخها، ويفهم النّصوص في ضوء عللها وغاياتها. وليس ذلك من باب المثلبة على هذه الأدوات، وإنّما من باب وضعها في موضعها الطّبيعيّ، دون غلوّ في الاعتماد عليها، أو تعسّف في تحقيرها.
وقد تقرّر في قواعد الأصول أنّ الحكم على الشّيء فرعٌ عن تصوّره. فمن أراد أن يحكم على هذه الأدوات بحكم شرعيّ، لزمه أوّلًا أن يتبيّن حقيقتها وحدودها، وما تحسنه وما تعجز عنه، ثمّ يردّ ذلك إلى مقاصد الشّريعة ومصالح الأمّة. ومن المعلوم أنّ الشّريعة جاءت بتحصيل المصالح ودرء المفاسد، والمصلحة كما بيّن أهل الأصول ليست محصورةً في الظّاهر المحسوس، بل تتعدّاه إلى ما يُبقي على الهويّة والرّوح والمقصد. ولأجل ذلك، فإنّ من أعظم المفاسد أن تُسلّم هذه النّظم لقيادة عمليّة التّوثيق والتّصحيح دون رقابة علميّة بشرية مؤهّلة.
كما أنّ من القواعد القطعيّة في الشّريعة أنّ وسائل العلم يجب أن تكون مأمونة الضّبط، مصونة من العبث والغلط. وأيّما وسيلةٍ غلب على الظّنّ تسرّب الخلل إليها، وجب تقييدها أو منعها. ومن ثمّ، فإنّ إخضاع النّظم الخبيرة لمعايير التّدقيق الشّرعيّ والعلميّ، هو من لوازم تحصيل اليقين، وصيانة مقام السنّة النّبويّة من التّحريف والتّزييف. وليس في ذلك حجرٌ على الابتكار، بل هو من قبيل توجيه الابتكار في مساره الشّرعيّ الصّحيح.
ويُضاف إلى ما سبق أنّ العلم في الإسلام ليس تكديسًا للمعلومات، ولا جمعًا للمرويّات، بل هو تمييزٌ بين الحقّ والباطل، والصّحيح والضعيف، والرّاسخ والزّائل. وهذا ما عبّر عنه الإمام مالك، حينما كان ينتقي من مئات الآلاف من الأحاديث ما يراه صالحًا لبناء الأمّة، غير ملتفتٍ إلى مجرّد كثرة المرويّات. فالعبرة ليست بالكثرة العدديّة، بل بالتحقيق المقاصديّ.
ومن هنا، فإنّ الموقف الأصوليّ الرّشيد يقتضي أن تُدرَس هذه النّظم في ضوء المقاصد الكلّيّة للشّريعة، وأن تُستثمر فيما تُحسنه، دون أن تُتَّخذ ذريعةً لتعطيل ملكات الاجتهاد، أو استبعاد المؤهّلين من أهل العلم. والواجب أن تبقى الكلمة الفصل بيد العلماء الرّاسخين، ومجامع الفقه المعتبرة، التي لها وحدها الحقّ في تقويم هذه الأدوات، وضبط معايير الإفادة منها.
وما لم يتحقّق هذا التّوازن، فإنّ الخطر كلّ الخطر أن تتحوّل هذه النّظم من وسيلة خادمة إلى قوّة مهيمنة، تفرض سلطتها على النّصوص والمناهج، وتدفع بالأمّة إلى الاستغناء عن العلماء. وإنّ من أعظم الفتن أن يستبدل النّاس الصّنعة الآليّة بالبصيرة البشريّة، وأن يظنّوا أنّ الخوارزميات تُغني عن الفقهاء والمحدّثين.
ولهذا، فإنّ التّعويل يجب أن يكون على الجمع بين العقل البشريّ والنّظم الذّكيّة، في شراكةٍ تحفظ للإنسان مقامه، وتستثمر في الآلة طاقتها، دون أن تُعطيها ما ليس من شأنها. وهذا هو الميزان الّذي تقتضيه مقاصد الشّريعة، وسنن الله في خلقه، وبه يكون الابتكار مأمون العاقبة، محفوظ الغاية، منصرفًا إلى خدمة الحقّ دون أن يتحوّل إلى أداة طغيان على عقول العلماء ومناهجهم. والله أعلم.
المصدر: صدى البلد
كلمات دلالية: الواقع المعاصر الذ كاء الاصطناعي تقنيات الذ كاء الاصطناعي هذه الأدوات
إقرأ أيضاً:
كيف ينتج الذكاء الاصطناعي معلومات خاطئة؟
#سواليف
تخيّل أنك تخوض امتحان تاريخ دون استعداد كافٍ، وتعتمد فقط على الحدس في الإجابة، فتربط “1776” بالثورة الأمريكية و”هبوط القمر” بعام 1969. هذا تقريباً ما تفعله نماذج اللغة الكبيرة (LLMs) مثل ChatGPT: إنها لا تفهم أو تفكر، بل “تخمّن” الكلمة التالية بناءً على أنماط شاهدتها في كميات هائلة من النصوص.
هذه الحقيقة تؤكد قوة #نماذج #اللغة_الكبيرة وحدودها، وهذا يقودنا إلى السؤال الأهم: إذا كانت النماذج بهذه الذكاء، فلماذا لا تزال ترتكب الأخطاء، أو تهلوس الحقائق، أو تظهر تحيزاً؟ لفهم ذلك، علينا التعمق في كيفية تعلمها، وفق “إنتريستينغ إنجينيرنغ”.
كيف تعمل هذه النماذج؟
تُقسّم اللغة إلى وحدات صغيرة (رموز) مثل “wash” و”ing”، وتخصص لكل منها وزناً في شبكة عصبية ضخمة، ثم تعدّل هذه الأوزان باستمرار خلال التدريب لتقليل الأخطاء. بمرور الوقت، تتقن هذه النماذج التعرف على الأنماط، لكنها لا “تعرف” الحقائق، فهي فقط تتوقع ما يبدو صحيحاً.
مقالات ذات صلةلماذا تخطئ أو تهلوس؟
لأنها تخمّن. هذا التخمين يؤدي أحياناً إلى “هلوسة” معلومات خاطئة أو مفبركة بثقة، كاختراع مصادر أو استشهادات.
هذه ليست أكاذيب متعمّدة، بل نتيجة لعدم تمييز النموذج بين الصحيح والمزيف.
وفي التطبيقات العملية، يمكن للهلوسة أن تؤدي إلى عواقب وخيمة، وفي البيئات القانونية والأكاديمية والطبية، يمكن للذكاء الاصطناعي اختلاق قوانين ومصادر أو تشخيص الحالات بثقة تامة دون معرفة تاريخ صحة المريض، وهذا يوضح ضرورة مراجعة البشر لأي محتوى ينتجه الذكاء الاصطناعي والتحقق منه، خاصةً في المجالات التي تعدّ فيها الدقة أمراً بالغ الأهمية.
التحيّز والمعرفة القديمة
نظراً لأن النماذج تتعلم من بيانات الإنترنت، فهي معرضة لاكتساب التحيزات الثقافية والجندرية والسياسية المتأصلة في تلك البيانات.
كما أن “معرفتها” مجمّدة زمنياً، فإذا تغير العالم بعد آخر تدريب لها، تصبح استنتاجاتها قديمة.
لماذا يصعب إصلاح هذه الأخطاء؟
يعمل مدربو الذكاء الاصطناعي مع مليارات الاحتمالات، وتدريبهم مرة أخرى من الصفر مكلف من حيث المال والقدرة الحاسوبية، والأسباب متشعبة، منها:
تكلفة تحديث البيانات: تدريب نموذج جديد يتطلب موارد هائلة.
غموض “الصندوق الأسود”: لا يمكن دائماً تفسير لماذا أعطى النموذج استجابة معينة.
محدودية الرقابة البشرية: لا يمكن فحص كل إجابة يخرج بها النموذج.
الحلول المطروحة
وللتغلب على هذه المشكلات، يلجأ المطورون إلى:
التعلّم المعزز بالتغذية الراجعة البشرية (RLHF)، حيث يقيّم البشر مخرجات النموذج لتحسينه.
الذكاء الاصطناعي الدستوري، كما لدى Anthropic، لتدريب النماذج على الالتزام بمبادئ أخلاقية.
مبادرة Superalignment من OpenAI، لتطوير ذكاء اصطناعي يتماشى مع القيم الإنسانية دون إشراف دائم.
قانون الذكاء الاصطناعي في الاتحاد الأوروبي، الذي يضع قواعد صارمة للأنظمة عالية المخاطر.
ما دور المستخدمين؟
#الذكاء_الاصطناعي أداة قوية، لكنه ليس معصوماً. لذا، تظل المراجعة البشرية ضرورية، خاصة في المجالات الحساسة كالقانون والطب والتعليم، فالخطأ الذي يصدر عن الذكاء الاصطناعي، تقع مسؤوليته على البشر، لا على الخوارزميات.