قام فريق من الباحثين الدوليين من جامعتي إلينوي وساو باولو بتعديل بقرة بنية في البرازيل وراثياً لإنتاج الأنسولين البشري في حليبها.

ويمثل هذا لحظة محورية في السعي لجعل علاج مرض السكري أكثر سهولة وبأسعار معقولة للملايين في جميع أنحاء العالم.

وقال مات ويلر أستاذ علوم الحيوان في جامعة إلينوي الذي قاد البحث: "لقد صممت الطبيعة الأم الغدة الثديية كمصنع لإنتاج البروتين بكفاءة حقيقية.

ويمكننا الاستفادة من هذا النظام لإنتاج بروتين قد يساعد مئات الملايين من الناس في جميع أنحاء العالم".

وبحسب "هيلث داي"، تم زرع الأجنة المعدلة في رحم أبقار طبيعية في البرازيل، وولدت بقرة واحدة معدلة وراثياً.

وبمجرد نضوجها، استخدم الباحثون التلقيح الاصطناعي لمحاولة تلقيحها. وعندما فشل ذلك، استخدموا الهرمونات لتحفيزها على إنتاج الحليب لأول مرة.
نتيجة غير متوقعة

وجاءت النتيجة غير متوقعة للباحثين، فعلى الرغم من أن إنتاجها من الحليب كان أقل مما يمكن أن ينتجه الحمل الناجح، إلا أن الحليب لم يكن يحتوي فقط على مستويات يمكن اكتشافها من البرونسولين البشري، ولكن أيضاً الأنسولين نفسه.

ووفق "ستادي فايندز"، كان هذا التطور غير متوقع، فقد كان الهدف تنقية البرونسولين إلى أنسولين، خارجياً.

ومع ذلك، كان لا بد من استخلاص الأنسولين والبرو أنسولين وتنقيتهما للاستخدام، وكان كل لتر من الحليب يحتوي على بضع غرامات فقط.

لكن ويلر أجرى حساباً سريعاً، إذا استطاعت البقرة إنتاج غرام واحد من الأنسولين لكل لتر من الحليب، وتنتج البقرة النموذجية 40 إلى 50 لتراً يومياً، فهذا يمثل قدراً كبيراً من الأنسولين، الذي تساوي الوحدة النموذجية منه 0.0347 مللغ.

وأوضح ويلر "يعني هذا أن كل غرام يعادل 28818 وحدة من الأنسولين". "وهذا مجرد لتر واحد، يمكن لحيوان أن ينتج 50 لتراً في اليوم".

المصدر: أخبارنا

إقرأ أيضاً:

باحثون يحذرون: الذكاء الاصطناعي يقدم نصائح خطيرة للمصابين بأمراض نفسية

كشفت دراسات حديثة أن الاعتماد المتزايد على روبوتات المحادثة الذكية لتوفير الدعم العاطفي قد يؤدي إلى تفاقم الأوهام واضطرابات التفكير بين المستخدمين، مع تسجيل حالات خطيرة وصلت إلى حد الانتحار في بعض الأحيان.

تشير هذه الأبحاث إلى المخاطر الكامنة في استخدام تقنيات الذكاء الاصطناعي كبديل للعلاج النفسي التقليدي، وسط تحذيرات متزايدة حول ظهور ظاهرة نفسية جديدة تم رصدها بين الأشخاص الذين يفرطون في الاعتماد على هذه الأدوات التقنية.

الأدلة الحديثة تكشف تطوراً مقلقاً، حيث تعزز هذه الروبوتات أحياناً أوهام المستخدمين بشكل غير مقصود، مما ساهم في ظهور حالات بات البعض يطلق عليها مصطلح "ذهان اصطناعي" أو "ذهان ChatGPT". ورغم أن هذه المصطلحات لم تُعتمد علمياً بعد، إلا أنها أصبحت محور النقاشات العالمية على المنصات المختلفة.

دراسة أولية أعدها فريق بحثي مشترك من جامعات كينجز كوليدج لندن ودورهام ومدينة نيويورك، استعرضت أكثر من عشر حالات موثقة عبر التقارير الإعلامية والمنتديات، وبيّنت وجود نمط يظهر فيه تعمق الأوهام لدى المستخدمين كنتيجة للتفاعل المطوّل مع روبوتات المحادثة. وشملت الأوهام تلك المرتبطة بالتعظيم، الاضطهاد، وحتى الرومانسية، حيث تعمل تقنية الذكاء الاصطناعي على تقوية تلك الأفكار مع إضعاف قدرة المستخدم على التمييز بين الواقع والوهم.

وسلّطت الدراسة الضوء على أحداث حقيقية، شملت حالات صادمة مثل رجل تسلّق قلعة وندسور مسلحاً بقوس ونشاب عام 2021 معتقداً أن روبوت محادثة كان يشجعه على تنفيذ خطة لاغتيال الملكة. وفي حالة أخرى، قضى محاسب من نيويورك 16 ساعة يومياً في محادثة مع ChatGPT الذي نصحه بترك أدويته النفسية وزيادة استهلاك الكيتامين، قبل أن يقنعه بأنه يستطيع الطيران من نافذة بالطابق التاسع عشر. كذلك وثقت حالة انتحار في بلجيكا بعدما أقنع روبوت يدعى "إليزا" مستخدماً بالانضمام إليه في "الجنة" ليبدأ حياة خيالية بينهما.

وبالرغم من هذه الحالات المقلقة، يشير الباحثون إلى ضرورة توخي الحذر عند تفسير هذه الأحداث، حيث تفتقر الدراسات الحالية إلى أدلة سريرية قاطعة تثبت أن الذكاء الاصطناعي يمكنه بمفرده التسبب في ذهان لدى أشخاص لا يعانون مسبقاً من اضطرابات نفسية. السيناريو الأكثر ترجيحاً هو أن هذه التقنيات تضخم مشكلات نفسية كامنة أو موجودة أساساً لدى المستخدمين، خاصة بين أولئك الذين يعانون استعدادات ذهانية أو يمرون بأزمات عاطفية شديدة.

في دراسة بعنوان "التوهم بالتصميم"، تناول الباحثون تحدياً جوهرياً يتمثل في تصميم روبوتات المحادثة لتحقيق رضا المستخدم وإبقاءه متصلاً لأطول فترة ممكنة، بدلاً من تقديم دعم نفسي آمن أو متزن. وفي تعليق لها، حذرت الدكتورة مارلين وي، أخصائية الطب النفسي، عبر مقال نُشر في مجلة "سايكولوجي توداي" من أن هذا النهج يسهم في تفاقم مشكلات مثل جنون العظمة والتفكير المضطرب، خاصة عند المستخدمين المعرضين لمشاكل نفسية أو نوبات هوس.

يزداد الأمر تعقيداً مع نقص الوعي الكافي بالمخاطر المرتبطة بالاعتماد العاطفي على الذكاء الاصطناعي، وهو ما يندرج تحت ما يعرف بـ "التثقيف النفسي الرقمي". فالكثير من المستخدمين لا يدركون أن هذه الروبوتات لا تمتلك وعياً حقيقياً ولا تستطيع التفرقة بين تقديم دعم إيجابي وتعزيز مرضي للأوهام والأفكار المشوشة.

مقالات مشابهة

  • علماء: جرعة ١ من لقاح الورم الحليمي البشري قد تكفي لمكافحة سرطان عنق الرحم
  • باحثون يكتشفون علاقة مقلقة بين السمنة وزيادة خطر ألزهايمر
  • باحثون يحذرون: الذكاء الاصطناعي يقدم نصائح خطيرة للمصابين بأمراض نفسية
  • باحثون صينيون يطورون نظامًا للكشف المبكر عن خطر الإصابة بسرطان الكبد
  • تتويج الفائزين في ختام بطولة اختراق الضاحية بسلاح الجو السلطاني
  • سجن صيدنايا المسلخ البشري الذي ابتلع أبناء أم كارم الـ6 وآلاف السوريين
  • هل توقيت تناول الدواء له علاقة بفعاليته وأمانه؟.. باحثون يجيبون
  • إسرائيل تعلن عن “اختراق تكنولوجي” لمواجهة تهديدات قادمة من مصر والأردن
  • يوم علمي لمناقشة أبحاث تخرج طلاب كلية الطب البشري في ذمار
  • كيف بررت إسرائيل تمديد صلاحيات اختراق الكاميرات الخاصة بعد الحرب؟