موسكو-سانا

كشف ألكسندر غينتسبيرغ مدير مركز أبحاث غاماليا لعلم الأوبئة والأحياء الدقيقة الروسي أن لقاح السرطان الذي ابتكره المركز سيتم إعداده حسب كل حالة مرضية، وبمساعدة الذكاء الاصطناعي العامل ببرمجيات روسية عالية المستوى.

ونقلت وكالة نوفوستي عن غينتسبيرغ قوله اليوم: “لقد جهزنا مختبراً متكاملاً، وخبراؤنا يصممون في الوقت الراهن برمجيات عالية للذكاء الاصطناعي تساعد في إعداد صيغة اللقاح”، مضيفاً: “البرنامج الذي ننتظره سيعمل على تحليل المعلومات حول الورم، ووضع خطة تركيب اللقاح اللازم وفق كل حالة مرضية”.

وأشار غينتسبيرغ إلى أنه بفضل الذكاء الاصطناعي فإن إعداد اللقاح سيستغرق أسبوعاً كحد أقصى من بداية تحليل الورم.

وأوضح أنه يجري الآن اختبار اللقاح في الدراسات ما قبل السريرية على الفئران وتطوير هذه التقنية لإطالة عمر الحيوانات المصابة بالورم الميلانيني بمقدار مرتين أو ثلاث مرات، ولابتكار الأدوية التي تسمح بتدمير مضمون للورم والنقائل على حد سواء.

وأشار مدير مركز غاماليا إلى أنه إذا أمكن تطوير هذه التقنية فإن اللقاح سيساعد المرضى الذين يعانون من سرطان الرئة ذي الخلايا غير الصغيرة وسرطان البنكرياس وأنواع معينة من سرطان الكلى والأورام الميلانينية.

وبين غينتسبيرغ أنه في هذه الأمراض تظهر النقائل في مراحل مبكرة لذلك سيكون هذا اللقاح مناسباً جداً لهؤلاء المرضى، مشيراً إلى أن إجراء التجارب السريرية للقاح على المرضى المصابين بالسرطان سيبدأ مع حلول منتصف العام القادم.

وأعلن وزير الصحة الروسي ميخائيل موراشكو مؤخراً أن النتائج الأولية للدراسات قبل السريرية للقاح قد يتم نشرها قبل نهاية العام.

المصدر: الوكالة العربية السورية للأنباء

إقرأ أيضاً:

كيف ينتج الذكاء الاصطناعي معلومات خاطئة؟

#سواليف

تخيّل أنك تخوض امتحان تاريخ دون استعداد كافٍ، وتعتمد فقط على الحدس في الإجابة، فتربط “1776” بالثورة الأمريكية و”هبوط القمر” بعام 1969. هذا تقريباً ما تفعله نماذج اللغة الكبيرة (LLMs) مثل ChatGPT: إنها لا تفهم أو تفكر، بل “تخمّن” الكلمة التالية بناءً على أنماط شاهدتها في كميات هائلة من النصوص.

هذه الحقيقة تؤكد قوة #نماذج #اللغة_الكبيرة وحدودها، وهذا يقودنا إلى السؤال الأهم: إذا كانت النماذج بهذه الذكاء، فلماذا لا تزال ترتكب الأخطاء، أو تهلوس الحقائق، أو تظهر تحيزاً؟ لفهم ذلك، علينا التعمق في كيفية تعلمها، وفق “إنتريستينغ إنجينيرنغ”.
كيف تعمل هذه النماذج؟

تُقسّم اللغة إلى وحدات صغيرة (رموز) مثل “wash” و”ing”، وتخصص لكل منها وزناً في شبكة عصبية ضخمة، ثم تعدّل هذه الأوزان باستمرار خلال التدريب لتقليل الأخطاء. بمرور الوقت، تتقن هذه النماذج التعرف على الأنماط، لكنها لا “تعرف” الحقائق، فهي فقط تتوقع ما يبدو صحيحاً.

مقالات ذات صلة 5 أدوات مجانية لمعرفة ما إذا كانت بياناتك مسربة على الإنترنت المظلم 2025/05/11

لماذا تخطئ أو تهلوس؟

لأنها تخمّن. هذا التخمين يؤدي أحياناً إلى “هلوسة” معلومات خاطئة أو مفبركة بثقة، كاختراع مصادر أو استشهادات.

هذه ليست أكاذيب متعمّدة، بل نتيجة لعدم تمييز النموذج بين الصحيح والمزيف.

وفي التطبيقات العملية، يمكن للهلوسة أن تؤدي إلى عواقب وخيمة، وفي البيئات القانونية والأكاديمية والطبية، يمكن للذكاء الاصطناعي اختلاق قوانين ومصادر أو تشخيص الحالات بثقة تامة دون معرفة تاريخ صحة المريض، وهذا يوضح ضرورة مراجعة البشر لأي محتوى ينتجه الذكاء الاصطناعي والتحقق منه، خاصةً في المجالات التي تعدّ فيها الدقة أمراً بالغ الأهمية.
التحيّز والمعرفة القديمة

نظراً لأن النماذج تتعلم من بيانات الإنترنت، فهي معرضة لاكتساب التحيزات الثقافية والجندرية والسياسية المتأصلة في تلك البيانات.

كما أن “معرفتها” مجمّدة زمنياً، فإذا تغير العالم بعد آخر تدريب لها، تصبح استنتاجاتها قديمة.

لماذا يصعب إصلاح هذه الأخطاء؟

يعمل مدربو الذكاء الاصطناعي مع مليارات الاحتمالات، وتدريبهم مرة أخرى من الصفر مكلف من حيث المال والقدرة الحاسوبية، والأسباب متشعبة، منها:

تكلفة تحديث البيانات: تدريب نموذج جديد يتطلب موارد هائلة.
غموض “الصندوق الأسود”: لا يمكن دائماً تفسير لماذا أعطى النموذج استجابة معينة.
محدودية الرقابة البشرية: لا يمكن فحص كل إجابة يخرج بها النموذج.
الحلول المطروحة

وللتغلب على هذه المشكلات، يلجأ المطورون إلى:

التعلّم المعزز بالتغذية الراجعة البشرية (RLHF)، حيث يقيّم البشر مخرجات النموذج لتحسينه.
الذكاء الاصطناعي الدستوري، كما لدى Anthropic، لتدريب النماذج على الالتزام بمبادئ أخلاقية.
مبادرة Superalignment من OpenAI، لتطوير ذكاء اصطناعي يتماشى مع القيم الإنسانية دون إشراف دائم.
قانون الذكاء الاصطناعي في الاتحاد الأوروبي، الذي يضع قواعد صارمة للأنظمة عالية المخاطر.

ما دور المستخدمين؟

#الذكاء_الاصطناعي أداة قوية، لكنه ليس معصوماً. لذا، تظل المراجعة البشرية ضرورية، خاصة في المجالات الحساسة كالقانون والطب والتعليم، فالخطأ الذي يصدر عن الذكاء الاصطناعي، تقع مسؤوليته على البشر، لا على الخوارزميات.

مقالات مشابهة

  • عندما يتحدث البشر.. هل يفهم الذكاء الاصطناعي ما بين السطور ؟!
  • د. محمد بشاري يكتب: الذكاء الاصطناعي .. وسيلة مساعدة أم سلطة بديلة
  • للتخفيف عن مرضى السرطان.. شفاء الأورام بالأقصر تستقبل 2375 حالة عمليات خلال عام
  • روسيا.. ابتكار طريقة غير مؤلمة لعلاج السرطان بالتبريد
  • للتخفيف عن مرضى السرطان وإنقاذ الحياة.. شفاء بالأقصر تستقبل 2375 حالة عمليات
  • للتخفيف عن مرضى السرطان وإنقاذ الحياة.. شفاء الأورمان بالأقصر تستقبل 2375 حالة عمليات خلال عام
  • كيف ينتج الذكاء الاصطناعي معلومات خاطئة؟
  • الجديد: أين ذهبت أدوية الأورام؟ المرضى يشترونها بأسعار باهظة رغم الاعتمادات
  • في زمن الذكاءِ الاصطناعيِّ والجندرِ الحُرِّ: لماذا يعودُ العشقُ الإلهيُّ إلى الواجهة؟
  • بابا الفاتيكان يحذّر: الذكاء الاصطناعي تحد للبشرية