شهد عام 2024 تطورات بارزة في مجال الذكاء الاصطناعي، خاصة في نماذج اللغة التي أصبحت أكثر دقة وكفاءة؛ فمن النماذج الصغيرة ذات القدرات المذهلة إلى معالجة الهلوسات وصولاً إلى ظهور وكلاء الذكاء الاصطناعي، يبرز هذا العام بوصفه نقطة تحول كبيرة في هذا المجال.

النماذج الصغيرة

على الرغم من أن نماذج اللغة الكبيرة (LLMs) مثل ChatGPT تعتمد على مئات المليارات من المقاييس لتقديم أداء شبيه بالبشر، فإن عام 2024 شهد طفرة في النماذج الصغيرة، التي تتمتع بكفاءة أكبر وموارد أقل.


هذه النماذج، مثل Phi-3 وPhi-4 من مايكروسوفت وLlama-3.2 من ميتا، تُعد أدوات مرنة يمكن تكييفها بسهولة لأداء مهام محددة، مثل التلخيص أو التحقق من الحقائق.
بالإضافة إلى ذلك، فإنها تستهلك طاقة أقل وتعمل على أنظمة حاسوبية أقل تكلفة، مما يجعلها خياراً مثالياً للمؤسسات ذات الموارد المحدودة.
ما يميز هذا العام أيضاً هو التفاعل المتسارع بين النماذج الكبيرة والصغيرة، حيث تسهم الأولى في تقديم ابتكارات تُستخدم لتحسين الثانية، مما يُنتج أنظمة هجينة أكثر قوة.

الوصول الواسع

على صعيد متصل، أشار تقرير في موقع Fast Company إلى أن إتاحة هذه النماذج على نطاق واسع فتح المجال لتطبيقات متنوعة، لكنها جاءت بمخاطر جديدة، لا سيما خلال عام شهد انتخابات حاسمة في العديد من الدول.
واستخدمت بعض الأطراف نماذج الذكاء الاصطناعي في حملات تضليل واسعة، مثل مكالمات روبوتية مزيفة تقلد صوت الرئيس الأمريكي جو بايدن لحث الناخبين على عدم التصويت، كما تم إنتاج فيديوهات وميمات خادعة باستخدام الذكاء الاصطناعي.

راغب علامة آخرهم.. نجوم وقعوا ضحايا الذكاء الاصطناعي - موقع 24أثار تسجيل "مفبرك" منسوب إلى اللبناني راغب علامة والفنان الإماراتي عبدالله بالخير، الجدل على منصات التواصل الاجتماعي، بسبب ما قيل إنه مساس بحسن نصرالله.

ورغم جهود شركات مثل OpenAI لإيقاف هذه العمليات، فإن التأثير الحقيقي لهذا النوع من التضليل على الرأي العام لا يزال غير واضح، ما دفع العديد من الولايات الأمريكية إلى إصدار قوانين جديدة لتنظيم استخدام الذكاء الاصطناعي في الحملات الانتخابية، مما يعكس القلق العالمي من تداعيات هذه التكنولوجيا.

التحدي الأكبر: الهلوسات

رغم تقدم نماذج اللغة، لا تزال "الهلوسات" تمثل تحدياً كبيراً، حيث تقدم النماذج أحياناً مخرجات خاطئة بثقة زائفة، مثل وصفات تنظيف خطيرة أو نصائح قانونية غير دقيقة.
ولحل هذه المشكلة، طورت الشركات تقنيات مثل "إطارات الحماية"، التي تراقب المدخلات والمخرجات في الوقت الفعلي لضمان الدقة.
ومع ذلك، أكدت الأبحاث أن هذه الهلوسات قد تكون جزءاً لا مفر منه في نماذج الذكاء الاصطناعي، بسبب محدودية مواردها الحاسوبية والمعلوماتية، تماماً كما يخطئ البشر.

"مافيا الذكاء الاصطناعي" تبتز مطعماً في لندن بتقييمات غوغل المزيفة - موقع 24تعرض مطعم في لندن، لوابل من المراجعات السلبية المزيفة من عصابة "مافيا الذكاء الاصطناعي"، التي سعت لابتزاز 10000 جنيه إسترليني . وكلاء الذكاء الاصطناعي

شهد عام 2024 بروز "وكلاء الذكاء الاصطناعي"، وهي نماذج تتمتع بقدرات تنفيذية مستقلة، حيث تتجاوز وظائف روبوتات المحادثة التقليدية لتتمكن من استخدام أدوات خارجية وأداء مهام معقدة، حيث يمكن لوكيل ذكاء اصطناعي تخطيط جدول سفر كامل، بدءاً من حجز الرحلات إلى ترتيب الإقامة وتنظيم الفعاليات.
ورغم أن هذه التكنولوجيا لا تزال في مراحلها الأولى، فإن التوقعات تشير إلى أن 82% من المؤسسات ستتبنى وكلاء الذكاء الاصطناعي خلال السنوات الثلاث المقبلة، مع توقعات باستخدام أوسع في 2025.

"Gemini 2" من غوغل: نقلة نوعية في عالم الذكاء الاصطناعي - موقع 24أطلقت شركة غوغل المملوكة للشركة الأم "ألفابت"، الأربعاء، الجيل الثاني من نموذجها "جيميناي" (Gemini) للذكاء الاصطناعي.

وعليه، فقد كشف عام 2024 عن الإمكانيات الهائلة للذكاء الاصطناعي، لكنه أظهر أيضاً الحاجة إلى توازن دقيق بين الابتكار والمسؤولية. ومع اقتراب دخولنا عام 2025، يبقى التحدي الأكبر هو توجيه هذه التقنية نحو تحسين حياة البشر مع الحد من مخاطر إساءة استخدامها.

المصدر: موقع 24

كلمات دلالية: سقوط الأسد حصاد 2024 الحرب في سوريا عودة ترامب خليجي 26 عام على حرب غزة إيران وإسرائيل إسرائيل وحزب الله غزة وإسرائيل الإمارات الذكاء الاصطناعي الذكاء الاصطناعي وکلاء الذکاء الاصطناعی عام 2024

إقرأ أيضاً:

كشف دليل داعش السري: كيف يستخدم التنظيم الذكاء الاصطناعي؟

تمكنت الجماعات الإرهابية في العالم من استغلال تقنيات الذكاء الاصطناعي بشكل مستمر ومتصل لتعزيز عملياتها، بدءا من استخدام العملات الرقمية لنقل الأموال وحتى استخدام الطباعة ثلاثية الأبعاد لصناعة الأسلحة، ولكن وفق التقرير الذي نشره موقع "غارديان" فإن الإرهابيين بدأوا في استخدام تقنيات الذكاء الاصطناعي.

ويشير التقرير إلى أن الإرهابيين بدأوا في الوقت الحالي باستغلال الذكاء الاصطناعي للتخطيط لهجماتهم وعملياتهم المختلفة، وفق تصريحات هيئات مكافحة الإرهاب بحكومة الولايات المتحدة، ولكن ما مدى هذا الاستخدام؟

الدعاية بالذكاء الاصطناعي

تعتمد الجهات الإرهابية بشكل كبير على جذب المتطوعين من مختلف بقاع الأرض والترويج لأعمالهم باستعراضها، وبينما كان الأمر يحتاج إلى مجهود كبير لالتقاط الصور والمقاطع وتجهيز الدعاية المباشرة لهذه العمليات، إلا أن الأمر اختلف بعد انتشار تقنيات الذكاء الاصطناعي.

ويؤكد تقرير "غارديان" أن الإرهابيين يعتمدون على "شات جي بي تي" لتعزيز نشاطهم الدعائي وجذب المزيد من المتطوعين إلى صفوفهم، إذ يعتمدون على النموذج لتوليد الصور والنصوص التي تستخدم في الدعاية بلغات ولهجات مختلفة.

كما يستطيع النموذج تعديل الرسالة الموجودة في وسائل الدعاية المختلفة لتمتلك أثرا مختلفا على كل شخص أو تحقق هدفا مختلفا، وذلك في ثوان معدودة ودون الحاجة إلى وجود صناع إعلانات محترفين.

ولا يقتصر الأمر على "شات جي بي تي" فقط، إذ امتد استخدامهم إلى بعض الأدوات التي تحول النصوص إلى مقاطع صوتية ومقاطع فيديو، وذلك من أجل تحويل رسائل الدعاية النصية التي يقدمونها إلى مقاطع صوتية وفيديو سهلة الانتشار.

ويشير تقرير "غارديان" إلى أن "داعش" تمتلك دليلا خاصا لاستخدام أدوات الذكاء الاصطناعي ومخاطره وتوزعه مباشرة على أعضائها والمهتمين بالانضمام إليها.

إعلان التوسع في استخدام الذكاء الاصطناعي

ويذكر التقرير أيضا غرف دردشة تعود ملكيتها لجهات إرهابية، يتحدث فيها المستخدمون عن أدوات الذكاء الاصطناعي، وكيف يمكن استغلالها لتعزيز أنشطتهم واختصار الأوقات والجهود المبذولة في الجوانب المختلفة.

وبينما صممت تقنيات الذكاء الاصطناعي لمساعدة المستخدمين وتسهيل حياتهم، فإن هذا الأمر لم يغب عن أفراد الجهات الإرهابية الذين بدأوا في استخدام روبوتات الدردشة عبر الذكاء الاصطناعي كمساعد شخصي أو مساعد باحث.

دليل استخدام الذكاء الاصطناعي الخاص بداعش يوجه أعضاءها إلى استخدام الذكاء الاصطناعي كمساعد شخصي (شترستوك)

ويظهر هذا الاستخدام بوضوح في دليل داعش لاستخدام الذكاء الاصطناعي، حيث يذكر الدليل بوضوح، أن هذه التقنية يمكنها تحديد النتيجة المستقبلية للحرب وكيف تحولت إلى سلاح محوري في الحروب المستقبلية.

ويذكر التقرير أيضا استخدام الذكاء الاصطناعي في الأبحاث السريعة والمباشرة من أجل وضع المخططات والبحث بدلا من الحاجة إلى جمع المعلومات يدويًا في الميدان، إذ تستطيع التقنية الآن تسريع هذه العملية وإيصالها إلى نتائج غير مسبوقة.

التغلب على القيود

تضع شركات الذكاء الاصطناعي على غرار "أوبن إيه آي" مجموعة من القيود على نماذجها، حتى لا تساعد هذه النماذج في بناء الأسلحة المتفجرة أو الأسلحة البيولوجية وغيرها من الأشياء التي يمكن استخدامها استخداما سيئا.

ولكن وفق تقرير "غارديان"، فقد وجدت الجهات الإرهابية آلية للتغلب على هذا الأمر، وبدلا من سؤال نماذج الذكاء الاصطناعي عن آلية صناعة القنابل والأسلحة مباشرة، يمكن تقديم المخططات للنموذج وطلب التحقق من دقتها وسلامتها.

وفضلا عن ذلك، يمكن خداع الذكاء الاصطناعي بعدة طرق لإيهامه، أن هذه المخططات والمعلومات التي يقدمها لن تستخدم استخداما سيئا، وهي الحالات التي حدثت من عدة نماذج مختلفة في السنوات الماضية.

ومع تسابق الشركات على تطوير تقنيات ذكاء اصطناعي أكثر قوة وقدرة على أداء وظائفها بشكل ملائم، تهمل في بعض الأحيان إرشادات السلامة المعمول بها عالميا.

وربما كان ما حدث مع روبوت "غروك" مثالا حيا لذلك، إذ تحول النموذج في ليلة وضحاها إلى أداة لنشر الخطاب المعادي للسامية وخطاب الكراهية عبر تغريدات عامة في منصة "إكس".

مقالات مشابهة

  • نماذج ذكاء اصطناعي تغير إجاباتها تبعا لطريقة تحدث المستخدم
  • دعوة لمقاربة شاملة لتنظيم الذكاء الاصطناعي
  • الجدل الاقتصادي في شأن الذكاء الاصطناعي 1/5
  • الذكاء الاصطناعي يفضّل الاستشهاد بالمحتوى الصحفي
  • يخطط ويكذب ويخفي أهدافه.. هل يقترب الذكاء الاصطناعي من وعي يشبه البشر؟
  • فيديو.. مباراة تنس بلا نهاية بين روبوتات غوغل لتدريب الذكاء الاصطناعي
  • البشر يتبنون لغة الذكاء الاصطناعي دون أن يشعروا
  • الذكاء الاصطناعي يساعد على توقع الخصائص الكيميائية
  • أهم ما يميز أداة الذكاء الاصطناعي نوت بوك إل إم من غوغل
  • كشف دليل داعش السري: كيف يستخدم التنظيم الذكاء الاصطناعي؟