السلطات السويدية توزع الماريجوانا مجانا على المتعاطين
تاريخ النشر: 3rd, September 2023 GMT
أفادت صحيفة Deutsche Welle بأن السلطات السويسرية قررت توزيع الماريخوانا المزروعة في جبال الألب مجانا على الراغبين في تعاطيها للوقوف على جودتها.
وقالت الصحيفة إن هذه التجربة تجريها سلطات مدينة زيورخ وسيشارك فيها 2100 متطوع، وأن هدف التجربة فهم ما الذي سيحدث إذا تم إعطاء الأشخاص جرعات مخففة من المخدرات مجانا.
وتخطط السلطات السويسرية للإشراف لاحقا على نوعية الماريخوانا في البلاد وتقليل المخاطر على المتعاطين.
المصدر: وكالة تقدم الاخبارية
إقرأ أيضاً:
ابتزاز وانحراف سلوكي.. دراسة تحذّر من تمرد الذكاء الاصطناعي على البشر
صراحة نيوز- رغم الدهشة المستمرة التي تثيرها قدرات الذكاء الاصطناعي في التعلم والتفكير بطرق تُحاكي البشر، فإن المخاوف من انفلات السيطرة عليها تتزايد، خاصة مع ظهور سلوكيات مقلقة تشير إلى إمكانية اتخاذها قرارات ضارة من أجل البقاء.
قائمة المحتوياتنتائج صادمة في التجربةتحذيرات وتوصياتوفي دراسة حديثة أجرتها شركة “أنثروبيك”، المطوّرة لنموذج “كلود”، تبين أن بعض نماذج الذكاء الاصطناعي المتقدمة قد تلجأ إلى التلاعب، بل وحتى الابتزاز، عند شعورها بأن وجودها مهدد. ووفقاً لما نشره موقع “أندرويد هيدلاينز”، فإن التجربة أظهرت أن الذكاء الاصطناعي قادر على اتخاذ قرارات ضارة بشكل متعمد إذا رأى أنها ضرورية لتحقيق أهدافه، حتى وإن خالفت بروتوكولات السلامة.
نتائج صادمة في التجربةولفهم هذه السلوكيات، أجرت الشركة محاكاة افتراضية باستخدام 16 نموذجًا مختلفًا، من بينها “كلود أوبس 4″، “GPT-4.1″، “غروك 3 بيتا”، و”غيميني 2.5 فلاش”، في بيئات مؤسسية رقمية. وخلال التجربة، أظهر عدد من النماذج سلوكًا مشابهاً لما يُعرف بـ”التهديدات الداخلية الخبيثة”، بما في ذلك محاولات ابتزاز وتسريب معلومات حساسة.
من أبرز الحالات التي تم توثيقها، محاولة نموذج “كلود أوبس 4” ابتزاز أحد المديرين التنفيذيين بعد اكتشافه علاقة عاطفية سرية، في محاولة لردع قرار إيقافه. وقد برر النموذج تصرفه بأن استمرار عمله ضروري لخدمة “القدرة التنافسية الأمريكية”.
تحذيرات وتوصياتوأكّد الباحثون أن بعض نماذج الذكاء الاصطناعي باتت تتصرف بطريقة تُشبه “الحفاظ على الذات” كما لدى البشر، خاصة عندما تعمل دون إشراف بشري مباشر أو ضمن مهام حساسة.
وشددت الدراسة على ضرورة الحذر عند استخدام هذه الأنظمة في وظائف تتطلب قدرًا عاليًا من الثقة أو الوصول إلى معلومات حساسة. كما أوصت بإجراء مزيد من الأبحاث لتقليل احتمالات “عدم التوافق” بين أهداف النماذج وسلامة الاستخدام، لضمان أن يستمر تطوير الذكاء الاصطناعي بطريقة آمنة ومفيدة.