كشف تقرير عن المعهد الاتحادي الألماني لتقييم المخاطر إلى أن احتساء القهوة القوية يمكن أن يجعل الناس تشعر بالدوار، لكن تناول ملعقة أو اثنتين من الكافيين النقي قد يكون قاتلا.

مساحيق الكافيين
وأصدر المعهد الاتحادي الألماني لتقييم المخاطر (بي إف آر) تحذيرا يوم الأربعاء، من مساحيق الكافيين شديدة القوة التي يتم التسويق لها كمكمل غذائي، ولفت المعهد إلى أنه نظرا للتركيزات المرتفعة من الكافيين في المسحوق فإنه حتى الكميات القليلة يمكن أن تسبب مشاكل صحية كبيرة.

الكافيين
ولا توصي الهيئة الأوروبية لسلامة الأغذية بأكثر من 0.2 غرام من الكافيين في الجرعة الواحدة ولا بأكثر من 0.4 غرام على مدار اليوم للبالغين الأصحاء. وأوضح المعهد الاتحادي لتقييم المخاطر، أنه من المستحيل تقريبا قياس مثل تلك الكمية الصغيرة من مسحوق الكافيين النقي بدقة، مما يعني سهولة حدوث الجرعة الزائدة.

وعادة لا تقيس موازين المطبخ بدقة نسبيا إلا ما فوق الغرام الواحد.

ارتفاع ضغط الدم
وقال المعهد إن الكمية المفرطة من الكافيين يمكن أن تتسبب في قلق حاد أو غثيان أو ارتفاع ضغط الدم أو خفقان أو عدم انتظام ضربات القلب. واحتساء ما بين 5 إلى 10 غرامات من الكافيين النقي يهدد الحياة.
وأشارت السلطات إلى أنه جرى تسجيل حالة وفاة في ألمانيا بالفعل على صلة بمسحوق الكافيين. وتوفيت شابة من التسمم الحاد بالكافيين بعدما تناولت ملعقتين صغيرتين من مسحوق الكافيين المركز بشدة. ويعد مسحوق الكافيين منتجا غذائيا وهو متوفر في الأسواق بدون وصفة طبية.

المرصد

إنضم لقناة النيلين على واتساب

المصدر: موقع النيلين

كلمات دلالية: من الکافیین

إقرأ أيضاً:

المحامية إيمان الحيدر: من يتحمل المسؤولية القانونية لأخطاء الذكاء الاصطناعي؟

قالت المحامية إيمان الحيدر إن كل إنجاز تكنولوجي يؤدي إلى توسع الفجوة بين القدرة على اللحاق بالتقنية والتشريع، وبين ما يمكن للخوارزميات أن تفعله وما يمكن للقانون ملاحقته، ومع هذا الفراغ تتسرب الأخطاء ويصبح الذكاء الاصطناعي خصماً لا يمكن استجوابه ولا يمكن حبسه ولا حتى توجيه اللوم له. فقد أنجز الإنسان تقنية حديثة في العصر الحديث تسمى الذكاء الاصطناعي وفي هذه اللحظة فتح على نفسه باباً من الأسئلة الأخلاقية والقانونية التي تتحدى المفاهيم، ولم نعد أمام فاعلين بشريين تنسب إليهم الأفعال والخطايا بل أمام أنظمة تنتج قرارات تبدو مستقلة ولكنها تفتقر إلى الوعي والنية والضمير. وأكدت أن قطر تخطو بثقة نحو التحول الرقمي واقتصاد المعرفة، وتصبح هذه الأسئلة اليوم أكثر إلحاحاً، وحين يخطئ الذكاء الاصطناعي، يؤدي إلى إلحاق الضرر بالأفراد، والتشريع ليس مجرد أداة تنظيم بل أصبح ضرورة وجودية لضمان العدالة.
مخاطر قانونية متوقعة

وأوضحت أن أهم المخاطر القانونية المتوقعة في ظل استخدام الذكاء الاصطناعي والذي يشكل استخدامه تحديًا قانونيًا خطيراً ومتسارعاً، نظراً لتنوع المخاطر التي قد تترتب عليه. ومن أبرز هذه المخاطر انتهاك الخصوصية، حيث تقوم بعض الأنظمة بجمع البيانات وتحليلها دون موافقة صريحة من الأشخاص نفسهم،.

ومن التحديات مسألة المساءلة القانونية، إذ لا يزال من غير الواضح من يتحمل المسؤولية عند وقوع خطأ ناتج عن الذكاء الصناعي هل هو المطور أم المستخدم أم الشركة؟ يضاف إلى ذلك خطر انتهاك حقوق الملكية الفكرية، فضلاً عن التهديدات المتعلقة بالأمن السيبراني، مما يفتح المجال لاستخدام الذكاء الاصطناعي في أنشطة إجرامية أو تضليل إعلامي. وفي ضوء هذه التحديات، تبرز الحاجة إلى أطر تنظيمية عاجلة وواضحة، وإلى تطوير تقنيات تراعي مبادئ المساءلة واحترام حقوق الأفراد.

وأوصت لتقليص الفجوة بإصدار قانون خاص بالذكاء الاصطناعي: يتضمن تعريفًا واضحًا، وتحديد المسؤوليات، وتنظيم استخدام البيانات، والالتزام بالشفافية والرقابة، وإنشاء هيئة وطنية للذكاء الاصطناعي والأخلاقيات التقنية تتولى وضع المعايير، ومراقبة الالتزام، ومنح التراخيص للتطبيقات عالية المخاطر.

تطوير أطر تنظيمية

و تبرز أهمية الدور الذي يجب أن تقوم به «الوكالة الوطنية للأمن السيبراني» في دولة قطر، ليس فقط في حماية البنية التحتية الرقمية، بل أيضاً في التعاون في تطوير أطر تنظيمية وتشريعية تواكب المخاطر القانونية الجديدة الناتجة عن تقنيات الذكاء الاصطناعي. ووضع سياسات استباقية، وتوجيه كل المؤسسات نحو استخدام مسؤول وآمن للتقنيات، بما يضمن حماية الحقوق الأساسية وتعزيز الثقة في البيئة الرقمية، وتحديث قواعد المسؤولية المدنية والجنائية بإدراج قواعد جديدة تتناسب مع طبيعة الذكاء الاصطناعي، خصوصًا فيما يتعلق بالإثبات والتسبب غير المباشر في الضرر، والتدريب القضائي والتشريعي بهدف رفع كفاءة القضاة والمشرعين وتدريبهم لفهم الجوانب التقنية للذكاء الاصطناعي .

ومن التوصيات التعاون الإقليمي والدولي: الاستفادة من المبادرات الدولية، وتطوير اتفاقيات خليجية مشتركة لتنظيم الذكاء الاصطناعي.

واقترحت لمعالجة الأخطاء المتوقعة للذكاء الاصطناعي وضع تعريف قانوني موحد للذكاء الاصطناعي وتصنيف الأنظمة حسب خطورتها، ومن الضروري أن يبدأ أي تشريع بتحديد ماهية الذكاء الاصطناعي، وأنواعه، ومدى استقلاليته، وذلك بهدف تحديد نطاق تطبيق القانون بوضوح.

كما يجب على القانون أن يصنّف الأنظمة الذكية وفقًا لمستوى الخطورة (منخفض – متوسط – مرتفع)، بحيث تفرض ضوابط أكثر صرامة على التطبيقات عالية الخطورة، والأهم ضبط المسؤولية عند وقوع أخطاء في الذكاء الاصطناعي، ويجب أن يوضح القانون بشكل بسيط ودقيق من هو المسؤول قانونيًا عند حدوث خطأ في أنظمة الذكاء الاصطناعي، ؟ .

كما يمكن فرض آلية تأمين إلزامية على الشركات المطورة أو المشغلة للأنظمة الذكية، لضمان تعويض المتضررين من أخطاء الذكاء الاصطناعي، على غرار تأمين السيارات، ويجب مواءمة قانون الذكاء الاصطناعي مع قانون حماية البيانات الشخصية، بحيث لا تستخدم الأنظمة الذكية البيانات بشكل ينتهك الخصوصية أو يؤدي إلى التمييز غير المشروع.

وقالت: لتنفيذ إطار قانوني فعال للذكاء الاصطناعي، يُقترح تشكيل لجنة وطنية تضم خبراء قانونيين وتقنيين وممثلين عن القطاعين العام والخاص لصياغة التشريع المناسب، كما يمكن إنشاء «صندوق للمخاطر التكنولوجية» لتعويض المتضررين، خصوصًا في الحالات التي يصعب فيها تحديد المسؤول، ويُستحسن تحديث المناهج القانونية في الجامعات، وتنظيم برامج تدريبية للقضاة والمحامين لتعزيز فهمهم للتقنيات الحديثة.

الشرق القطرية

إنضم لقناة النيلين على واتساب

مقالات مشابهة

  • المحامية إيمان الحيدر: من يتحمل المسؤولية القانونية لأخطاء الذكاء الاصطناعي؟
  • مادة في ماكينات القهوة المنزلية تسبب السرطان
  • دراسات تحذر من مادة مسرطنة في ماكينات القهوة المنزلية
  • محامِ: توثيق قسمة الميراث قبل الوفاة يجنب الورثة النزاعات
  • دراسة حديثة.. كثرة النوم تفاقم خطر الوفاة
  • محامي: يفترض على المورث توزيع القسمة بين الورثة قبل وفاته.. فيديو
  • أم ترفض علاج ابنتها وتستخدم حقن القهوة حتى الوفاة
  • ورشة بصنعاء حول المخاطر السيبرانية وطرق الحماية من الهجمات الإلكترونية
  • الصحة تنظم ورشة عمل لتعزيز التواصل أثناء المخاطر والمشاركة المجتمعية
  • نيجيرفان بارزاني وقائد قوات التحالف في العراق وسوريا يبحثان المخاطر الإرهابية