»مصطلحات الذكاء الاصطناعي«.. دليل جديد يبسط التعقيد ويفتح آفاق المستقبل
تاريخ النشر: 23rd, July 2025 GMT
الثورة / هاشم السريحي
في ظل التطور المتسارع للذكاء الاصطناعي وتغلغله في كافة مناحي الحياة، يواجه الكثيرون صعوبة في فهم المصطلحات المعقدة التي يتداولها المتخصصون في هذا المجال. ولمواجهة هذا التحدي، أصدر المهندس عبدالرحمن السيد كتيباً نوعياً بعنوان «مصطلحات الذكاء الاصطناعي»، يقدم فيه شرحاً مبسطاً وواضحاً لأبرز المفاهيم، ليكون دليلاً للمبتدئين والمهتمين على حد سواء.
يأتي هذا الكتيب في وقت تزداد فيه الحاجة إلى فهم أساسيات الذكاء الاصطناعي، ليس فقط للمختصين، بل لكل فرد يسعى لمواكبة الثورة التقنية الجارية. ويعرض المهندس السيد في عمله أبرز المصطلحات الأساسية التي تشكل جوهر عالم الذكاء الاصطناعي، مقدماً لكل مصطلح تعريفاً دقيقاً، مثالاً تطبيقياً، واستخدامات متقدمة له في الشركات والمجالات المختلفة.
بوابة لفهم عالم الذكاء الاصطناعي:
يتناول الكتيب مجموعة واسعة من المصطلحات، بدءاً من مفهوم «الوكيل (Agent)»، الذي يُعرف بأنه نظام ذكاء اصطناعي يقوم بمهام ذاتية لتحقيق أهداف محددة بناءً على بيانات متغيرة، مثل بوتات الذكاء الاصطناعي التي ترسل رسائل البريد الإلكتروني أو تحدد مواعيد الاجتماعات. ولا يغفل الكتيب “الأتمتة (Automation)»، وهي عملية تنفيذ المهام المتكررة آلياً دون تدخل بشري، كجدولة المنشورات على وسائل التواصل الاجتماعي.
ويمضي الكتيب لشرح مصطلح “التدريب (Training)»، وهي عملية تعليم نموذج الذكاء الاصطناعي عبر تزويده بكميات ضخمة من البيانات، كتدريب نموذج لتمييز صور القطط والكلاب. كما يسلط الضوء على “البيانات الضخمة (Big Data)»، تلك المجموعات الهائلة من البيانات التي لا يمكن معالجتها بالطرق التقليدية، والتي تُستخدم لتحليل سلوك العملاء، والتنبؤ بالمبيعات، وتحسين تجربة المستخدم.
ويُفصل الكتيب أيضاً مفهوم “الاستدلال (Inference)»، وهي المرحلة التي يستخدم فيها نموذج الذكاء الاصطناعي المدرب لتقديم النتائج، كاستجابة برنامج ChatGPT للتعليمات. ولا يغفل الجانب الأخلاقي للذكاء الاصطناعي من خلال شرح “التحيز الخوارزمي (Algorithmic Bias)»، والذي يشير إلى النتائج المتحيزة أو غير العادلة الناتجة عن تدريب النماذج على بيانات غير متوازنة، مثل التوصيات غير المنصفة في التوظيف.
ومن المصطلحات المبتكرة التي يقدمها الكتيب “تقنيات تقليد الأصوات (Voice Cloning)» التي تستخدم الذكاء الاصطناعي لتوليد أصوات مشابهة تماماً لأصوات بشرية معينة، مثل توليد تسجيل صوتي بصوت مذيع معروف. بالإضافة إلى “توليد النصوص (Text Generation)»، قدرة النموذج على إنتاج محتوى مكتوب بناءً على تعليمات معينة، و”التعرف على الصور (Image Recognition)»، قدرة الذكاء الاصطناعي على تحليل الصور وفهم محتواها، كما في تطبيق Google Photos.
كما يشرح الكتيب “الذكاء الاصطناعي التفاعلي (Conversational AI)»، وهي الأنظمة المصممة للتفاعل مع البشر بطريقة طبيعية، مثل روبوتات الدردشة على المواقع الإلكترونية. ويتطرق إلى “النمذجة التنبؤية (Predictive Modeling)» التي تستخدم الذكاء الاصطناعي للتنبؤ بالنتائج أو السلوكيات المستقبلية بناءً على البيانات الحالية. ويختتم بسرد مفهوم “الذكاء الاصطناعي المدمج (Embedded AI)»، وهو دمج الذكاء الاصطناعي داخل الأجهزة أو البرامج لأداء وظائف ذكية تلقائية، كالثلاجات الذكية التي تنبهك لاقتراب انتهاء صلاحية المخزون.
خاتمة: خطوة أولى نحو الاستفادة من الذكاء الاصطناعي
يؤكد الكتيب في خاتمته على أن تعلم المصطلحات هو خطوة أولى مهمة، لكن الأهم هو تطبيق ما يتم تعلمه. ويحث القراء على البدء باستخدام الأدوات المجانية، وكتابة تعليمات بسيطة، واكتشاف كيف يمكن للذكاء الاصطناعي أن يسهل حياتهم أو عملهم.
ويمثل كتيب المهندس عبدالرحمن السيد إضافة قيمة للمكتبة العربية في مجال الذكاء الاصطناعي، ويقدم أداة تعليمية حيوية تسهم في نشر الوعي التقني وتمكين الأفراد من فهم واستغلال إمكانات هذه الثورة التكنولوجية بفاعلية.
المصدر: الثورة نت
إقرأ أيضاً:
كشف دليل داعش السري: كيف يستخدم التنظيم الذكاء الاصطناعي؟
تمكنت الجماعات الإرهابية في العالم من استغلال تقنيات الذكاء الاصطناعي بشكل مستمر ومتصل لتعزيز عملياتها، بدءا من استخدام العملات الرقمية لنقل الأموال وحتى استخدام الطباعة ثلاثية الأبعاد لصناعة الأسلحة، ولكن وفق التقرير الذي نشره موقع "غارديان" فإن الإرهابيين بدأوا في استخدام تقنيات الذكاء الاصطناعي.
ويشير التقرير إلى أن الإرهابيين بدأوا في الوقت الحالي باستغلال الذكاء الاصطناعي للتخطيط لهجماتهم وعملياتهم المختلفة، وفق تصريحات هيئات مكافحة الإرهاب بحكومة الولايات المتحدة، ولكن ما مدى هذا الاستخدام؟
الدعاية بالذكاء الاصطناعيتعتمد الجهات الإرهابية بشكل كبير على جذب المتطوعين من مختلف بقاع الأرض والترويج لأعمالهم باستعراضها، وبينما كان الأمر يحتاج إلى مجهود كبير لالتقاط الصور والمقاطع وتجهيز الدعاية المباشرة لهذه العمليات، إلا أن الأمر اختلف بعد انتشار تقنيات الذكاء الاصطناعي.
ويؤكد تقرير "غارديان" أن الإرهابيين يعتمدون على "شات جي بي تي" لتعزيز نشاطهم الدعائي وجذب المزيد من المتطوعين إلى صفوفهم، إذ يعتمدون على النموذج لتوليد الصور والنصوص التي تستخدم في الدعاية بلغات ولهجات مختلفة.
كما يستطيع النموذج تعديل الرسالة الموجودة في وسائل الدعاية المختلفة لتمتلك أثرا مختلفا على كل شخص أو تحقق هدفا مختلفا، وذلك في ثوان معدودة ودون الحاجة إلى وجود صناع إعلانات محترفين.
ولا يقتصر الأمر على "شات جي بي تي" فقط، إذ امتد استخدامهم إلى بعض الأدوات التي تحول النصوص إلى مقاطع صوتية ومقاطع فيديو، وذلك من أجل تحويل رسائل الدعاية النصية التي يقدمونها إلى مقاطع صوتية وفيديو سهلة الانتشار.
ويشير تقرير "غارديان" إلى أن "داعش" تمتلك دليلا خاصا لاستخدام أدوات الذكاء الاصطناعي ومخاطره وتوزعه مباشرة على أعضائها والمهتمين بالانضمام إليها.
إعلان التوسع في استخدام الذكاء الاصطناعيويذكر التقرير أيضا غرف دردشة تعود ملكيتها لجهات إرهابية، يتحدث فيها المستخدمون عن أدوات الذكاء الاصطناعي، وكيف يمكن استغلالها لتعزيز أنشطتهم واختصار الأوقات والجهود المبذولة في الجوانب المختلفة.
وبينما صممت تقنيات الذكاء الاصطناعي لمساعدة المستخدمين وتسهيل حياتهم، فإن هذا الأمر لم يغب عن أفراد الجهات الإرهابية الذين بدأوا في استخدام روبوتات الدردشة عبر الذكاء الاصطناعي كمساعد شخصي أو مساعد باحث.
ويظهر هذا الاستخدام بوضوح في دليل داعش لاستخدام الذكاء الاصطناعي، حيث يذكر الدليل بوضوح، أن هذه التقنية يمكنها تحديد النتيجة المستقبلية للحرب وكيف تحولت إلى سلاح محوري في الحروب المستقبلية.
ويذكر التقرير أيضا استخدام الذكاء الاصطناعي في الأبحاث السريعة والمباشرة من أجل وضع المخططات والبحث بدلا من الحاجة إلى جمع المعلومات يدويًا في الميدان، إذ تستطيع التقنية الآن تسريع هذه العملية وإيصالها إلى نتائج غير مسبوقة.
التغلب على القيودتضع شركات الذكاء الاصطناعي على غرار "أوبن إيه آي" مجموعة من القيود على نماذجها، حتى لا تساعد هذه النماذج في بناء الأسلحة المتفجرة أو الأسلحة البيولوجية وغيرها من الأشياء التي يمكن استخدامها استخداما سيئا.
ولكن وفق تقرير "غارديان"، فقد وجدت الجهات الإرهابية آلية للتغلب على هذا الأمر، وبدلا من سؤال نماذج الذكاء الاصطناعي عن آلية صناعة القنابل والأسلحة مباشرة، يمكن تقديم المخططات للنموذج وطلب التحقق من دقتها وسلامتها.
وفضلا عن ذلك، يمكن خداع الذكاء الاصطناعي بعدة طرق لإيهامه، أن هذه المخططات والمعلومات التي يقدمها لن تستخدم استخداما سيئا، وهي الحالات التي حدثت من عدة نماذج مختلفة في السنوات الماضية.
ومع تسابق الشركات على تطوير تقنيات ذكاء اصطناعي أكثر قوة وقدرة على أداء وظائفها بشكل ملائم، تهمل في بعض الأحيان إرشادات السلامة المعمول بها عالميا.
وربما كان ما حدث مع روبوت "غروك" مثالا حيا لذلك، إذ تحول النموذج في ليلة وضحاها إلى أداة لنشر الخطاب المعادي للسامية وخطاب الكراهية عبر تغريدات عامة في منصة "إكس".