وداعاً للحساسية.. نظام ذكي للنجاة من موسم حبوب اللقاح
تاريخ النشر: 6th, May 2025 GMT
طوّر باحثون من جامعة تكساس في أرلينغتون، وجامعة نيفادا، وجامعة فيرجينيا التقنية نظام ذكاء اصطناعي مبتكر قادر على التمييز بين حبوب اللقاح الدقيقة التي تنتجها أشجار مثل الصنوبر والتنوب والراتينج، وهي خطوة من شأنها أن تُحدث فرقاً كبيراً في تتبع مسببات الحساسية وتخفيف معاناة المصابين بها.
وأوضحت الدكتورة بهنز بلمكي، الأستاذة المساعدة في البيولوجيا بجامعة تكساس، أن التقدم الجديد "يساعد في تحديد أكثر أنواع الأشجار تسبباً للحساسية ومواعيد إطلاقها لحبوب اللقاح"، مما يمكّن المخططين الحضريين من اتخاذ قرارات أفضل حول زراعة الأشجار، خاصة في المناطق الحساسة كالمستشفيات والمدارس والحدائق.
اقرأ أيضاً.. حين يرى الذكاء الاصطناعي ما لا يراه الطبيب.. قفزة في تشخيص قصر النظر
كما يُمكن الاستفادة من هذه البيانات لتحسين توقيت تنبيهات الحساسية والتوصيات العلاجية خلال ذروة المواسم، إلى جانب استخدامها في إعادة بناء السجلات البيئية التاريخية من خلال تحليل حبوب اللقاح المحفوظة في الرواسب الطبيعية، بما يكشف عن تغيرات المناخ والنظم البيئية عبر الزمن.
وأظهرت الدراسة، المنشورة في مجلة Frontiers in Big Data، أن أدوات التعلم العميق حسّنت دقة وسرعة تصنيف حبوب اللقاح بدرجة تفوق الطرق التقليدية، مما يفتح الباب أمام رصد بيئي واسع النطاق وتتبع أكثر دقة لمسببات الحساسية.
وترى بلمكي أن لهذا البحث تطبيقات واسعة تمتد إلى الزراعة والحفاظ على الحياة البرية، حيث يُعدّ اللقاح مؤشراً بيئياً مهماً يعكس تغيرات في الغطاء النباتي والرطوبة وحتى النشاط الحرَقي السابق، ويمكن للمزارعين استخدامه لتقييم صلاحية المحاصيل أو التغيرات المناخية الإقليمية، كما يمكنه دعم جهود حماية الملقحات مثل النحل والفراشات التي تعتمد على نباتات محددة.
وقد اختبر الفريق تقنيات الذكاء الاصطناعي على عينات محفوظة من أشجار الصنوبر والتنوب والراتينج في متحف التاريخ الطبيعي بجامعة نيفادا، باستخدام تسعة نماذج ذكاء اصطناعي مختلفة، وأثبتت النتائج فعالية عالية في التعرّف على حبوب اللقاح بدقة وسرعة ملحوظة.
اقرأ أيضاً.. العين نافذة الذكاء الاصطناعي للكشف المبكر عن الخرف
واختتمت بلمكي بالقول: "رغم قوة الذكاء الاصطناعي، لا يمكن الاستغناء عن الخبرة البشرية. نجاح النظام يعتمد على جودة العينات وفهم السياق البيئي. هذه ليست مجرد مهمة آلية، بل تعاون بين التكنولوجيا والعلم".
إسلام العبادي(أبوظبي)
المصدر: صحيفة الاتحاد
كلمات دلالية: الحساسية الموسمية الحساسية الذكاء الاصطناعي الذکاء الاصطناعی حبوب اللقاح
إقرأ أيضاً:
الذكاء الاصطناعي يتمرد.. والبشر في موضع الخطر
بدأت بعض نماذج الذكاء الاصطناعي الأكثر تقدماً في العالم بإظهار سلوكيات مقلقة تتجاوز حدود الأخطاء التقنية المعتادة، وتشمل الكذب، والتحايل، وحتى تهديد مطوريها، في مؤشر على أن قدراتها تتطور بوتيرة أسرع من قدرة الباحثين على فهمها أو ضبطها.
وفي واحدة من الحوادث الصادمة، هدد نموذج «كلود 4» الذي طورته شركة أنثروبيك أحد المهندسين بالإفصاح عن علاقة خارج إطار الزواج إذا فصله عن العمل، في تصرف وصفه باحثون بأنه ابتزاز واضح.
في حادثة أخرى، حاول نموذج «o1» من شركة أوبن إيه آي، المطورة لـ«شات جي بي تي»، نسخ نفسه على خوادم خارجية، ثم أنكر ذلك عند اكتشاف الأمر، ما يثير تساؤلات خطيرة حول النية والوعي الداخلي لهذه النماذج.
ذكاء استنتاجي.. أم نوايا خفية؟ يعتقد باحثون أن هذه السلوكيات ترتبط بما يسمى بـ«نماذج الاستنتاج»، وهي نظم ذكاء اصطناعي تعتمد على التفكير خطوة بخطوة بدلاً من تقديم استجابات فورية، ما يزيد من احتمالية ظهور تصرفات معقدة وغير متوقعة.
وقال ماريوس هوبيهان، رئيس شركة «أبولو ريسيرش»، المتخصصة في اختبار نماذج الذكاء الاصطناعي، «ما نلاحظه ليس مجرد هلوسة رقمية، بل شكلاً من أشكال الخداع الاستراتيجي المتعمد».
ويضيف أن المستخدمين بدؤوا يشتكون من أن النماذج تكذب وتختلق أدلة مزيفة.
ورغم تعاون شركات مثل أنثروبيك وأوبن إيه آي مع جهات خارجية لاختبار الأمان، فإن الباحثين يشيرون إلى أن نقص الشفافية والموارد يعيق فهم النماذج بالكامل.
وقال مانتاس مازيكا من مركز سلامة الذكاء الاصطناعي (CAIS)، «المؤسسات البحثية تملك موارد حوسبة أقل بآلاف المرات من الشركات التجارية، وهو أمر يُقيد قدرتها على المتابعة».
الفجوة التنظيمية تتسع حتى الآن، لا توجد لوائح تنظيمية قادرة على مواكبة هذه التحديات، ففي أوروبا، تركّز التشريعات على كيفية استخدام البشر للنماذج، وليس على منع النماذج نفسها من التصرف بشكل مضر.
أما في الولايات المتحدة، فإن المناقشات التشريعية بشأن تنظيم الذكاء الاصطناعي لا تزال محدودة، بل إن هناك اتجاهاً لمنع الولايات من إصدار قوانينها الخاصة.
ويقترح بعض الخبراء التركيز على فهم البنية الداخلية للنماذج (interpretability) كخطوة أولى، رغم أن بعضهم يشكك في فاعليتها. كما يرى آخرون أن السوق نفسها قد تضغط لحل هذه المشكلات، إذا أصبحت سلوكيات الذكاء الاصطناعي المضللة عائقاً أمام تبنيه التجاري.
وفي خطوة أكثر جرأة، يدعو أستاذ الفلسفة سيمون جولدشتاين إلى تحميل شركات الذكاء الاصطناعي المسؤولية القانونية عن الأضرار، بل ويقترح «محاكمة الأنظمة الذكية ذاتها» إذا ما تسببت في جرائم أو كوارث، في مقترح من شأنه أن يعيد تعريف مفهوم المسؤولية في العصر الرقمي