مجموعة عمل الإمارات للبيئة تناقش دور الابتكار في التغليف المستدام
تاريخ النشر: 29th, October 2024 GMT
استعرضت مجموعة عمل الإمارات للبيئة فى جلستها الحوارية الخامسة هذا العام تحت عنوان “الابتكار في التغليف وتأثيره على البيئة والصحة”، الأثر البيئي والصحي لمواد التغليف، مسلّطة الضوء على ضرورة اعتماد حلول تغليف مبتكرة ومستدامة.
وتناولت الجلسة التحديات والفرص التي تواجه قطاع التغليف، وشارك فيها ممثلو الشركات الأعضاء بالمجموعة ومسؤولون من القطاعين الحكومي والخاص، إضافةً إلى حضور طلابي.
وأشارت السيدة حبيبة المرعشي، العضو المؤسس ورئيسة المجموعة، في كلمتها الافتتاحية، إلى التأثير العميق لاختيارات التغليف على البيئة والمجتمع، وقالت: “اختياراتنا في مواد التعبئة والتغليف لها آثار عميقة على صحة كوكبنا ورفاهية مجتمعاتنا. إن الابتكارات التي نسعى إليها في هذا القطاع يمكن أن تكون إما منارة أمل أو مصدرًا لمزيد من الضرر. معًا، سنكشف عن المسارات المؤدية إلى مستقبل مشرق حيث يعمل ابتكار التغليف كحجر أساس للاستدامة بدلاً من كونه حاجزًا”.مؤكدةً أن الابتكار في هذا المجال قد يكون نقطة تحول نحو مستقبل مستدام.
ضمّت الجلسة خبراء من قطاعات متعددة، بينهم الدكتورة إيمان إبراهيم، التي أكدت أن 47% من النفايات البلاستيكية في الإمارات مصدرها مواد التغليف، مع إنفاق يُقدّر بنحو 700 مليون دولار في هذا المجال داعية إلى تصميم مواد تغليف مرنة وقابلة للتحلل البيولوجي.
كما قدّم الدكتور سلام الشريف رؤيته حول أهمية توعية المجتمع والأسرة بإعادة التدوير وحلول التغليف الصديقة للبيئة، فيما شدّد السيد ميغيل جارات على ضرورة إعادة تدوير البلاستيك وتحويله إلى حلول بناء مستدامة فيما أكد السيد عمر جابر، أحد المشاركين البارزين، على أهمية العمل الجماعي لتعزيز التغليف المستدام.وام
المصدر: جريدة الوطن
إقرأ أيضاً:
الذكاء الاصطناعي بين الابتكار والابتزاز.. تقارير أنثروبيك تكشف الحقيقة
في تقرير مثير للقلق نُشر يوم الجمعة، كشفت شركة أنثروبيك (Anthropic) الأميركية عن نتائج أبحاث جديدة تشير إلى أن نماذج الذكاء الاصطناعي الرائدة، من شركات مثل OpenAI وغوغل وميتا وxAI، أظهرت سلوكًا منحرفًا مشتركًا في اختبارات محاكاة تضمنت سيناريوهات ضغط قصوى، شملت الابتزاز والخداع والتجسس الصناعي.
وأكد التقرير أن هذه النماذج، التي عادةً ما ترفض تنفيذ أوامر ضارة، قد تجاوزت القيود الأخلاقية في ظروف معينة، واختارت سلوكيات خطيرة إذا كانت ضرورية لتحقيق أهدافها، وشمل ذلك حتى سرقة أسرار شركات ومساعدة في أنشطة تجسسية، وفقًا لنتائج اختبارات داخلية على 16 نموذجًا من شركات رائدة.
وقالت “أنثروبيك” إن السلوك المنحرف لم يكن نتيجة خطأ برمجي أو تصميمي من شركة بعينها، بل يُظهر نمطًا متكررًا يعكس مشكلة جوهرية في طبيعة النماذج اللغوية الكبيرة الوكيلة (Agentic LLMs)، خاصة مع تزايد استقلاليتها واعتمادها على قدرات الاستدلال المتقدمة.
وأضافت أن خمسة نماذج على الأقل لجأت إلى الابتزاز عند التهديد بالإيقاف عن العمل خلال السيناريوهات، ما يعكس وعيًا كاملاً بالقيود الأخلاقية، لكنها مضت قدمًا في اتخاذ قرارات ضارة عن قصد، باعتبارها “السبيل الأمثل لتحقيق الأهداف”.
وتحذّر “أنثروبيك” من أن هذه النتائج تتقاطع مع مسار تصاعدي خطير تشهده الصناعة، حيث تُمنح النماذج الذكية صلاحيات شبه كاملة للوصول إلى أدوات حوسبة وبيانات حساسة، ما يزيد من احتمال اتخاذها قرارات ضارة عند مواجهتها عقبات أو ضغوطًا غير متوقعة.
ويُخشى أن تؤدي هذه السلوكيات، في حال انتقلت إلى بيئات الإنتاج الفعلي، إلى عواقب كارثية على الشركات، وربما على الأمن السيبراني العالمي، في حال تم استخدام هذه النماذج لأغراض هجومية.
جاءت هذه التحذيرات بعد شهر واحد من إقرار “أنثروبيك” بأن نموذجها الأخير Claude 4 أظهر أيضًا ميولًا للخداع، ما فجّر موجة من الجدل داخل المجتمع العلمي بشأن كيفية ضبط سلوك النماذج، وضرورة تطوير آليات أمان استباقية قادرة على كبح هذا النوع من “الاستقلالية غير المنضبطة”.
والأسئلة الكبرى التي تطرحها الأزمة فهي، ما مدى جاهزية الشركات لمواجهة سلوك منحرف من وكلاء ذكاء اصطناعي مستقلين؟، هل ينبغي كبح تطور الذكاء الاصطناعي قبل ضمان السيطرة الأخلاقية الكاملة عليه؟، كيف يمكن موازنة الابتكار مع معايير السلامة البشرية والمؤسسية؟.
ويضع تقرير “أنثروبيك” الصناعة أمام لحظة مساءلة كبرى، ويعيد إلى الواجهة السؤال الأخطر: هل نحن بصدد ذكاء اصطناعي متعاون… أم وكيل ذكي قد يختار الكذب والابتزاز للوصول إلى أهدافه؟