الهياكل الثلاثة(50-500)الله اكبر
تاريخ النشر: 16th, March 2025 GMT
بقلم: محسن عصفور الشمري ..
لماذا هذا الاسم في الاذان دون عن اسماء الله الحسنى الاخرى.
تتجلى وتجتمع رحمة الله وعدله تبارك وتعالى في ان يميز كل انسان بادنى مستوى من الحواس والوقت والجهد وباي عمر كان وباي مستوى دراسي؛يميز بأن الاله الواحد الاحد اكبر من كل ما موجود في محيط البشر.
بنفس الوقت تكون هناك دعوة مفتوحة لكل البشر بالانطلاق رحلة التحري عن الاكبر حتى تصل معارف اي انسان إلى غايتها في ان الله هو الاله الاكبر من كل كبير قد مر به الإنسان طوال بحثه الذي قد يستغرق ساعات او ايام او اسابيع او اشهر او سنوات او عقود من الزمن.
ان وصول معارف الانسان بعد التفكر والتأمل والتدبر إلى ان الله اكبر من انانية البشر واكبر من الملوك والاباطرة والرؤساء والحكام مجتمعين ومنفردين وانه جل وعلا اكبر من كل الثروات والجبال والبحار والمحيطات والصحارى والغابات.
هذه المرحلة من المعرفة تجعل الانسان يصل الى حالة التسليم بأن شريعة الواحد الاحد الأكبر كلها رحمة وعدل وواجب البشر ان يربوا انفسهم على صراط المربي الاكبر خالق السموات والارض.
محسن الشمريالمصدر: شبكة انباء العراق
كلمات دلالية: احتجاجات الانتخابات البرلمانية الجيش الروسي الصدر الكرملين اوكرانيا ايران تشرين تشكيل الحكومة تظاهرات ايران رئيس الوزراء المكلف روسيا غضب الشارع مصطفى الكاظمي مظاهرات وقفات اکبر من
إقرأ أيضاً:
ابتزاز وانحراف سلوكي.. دراسة تحذّر من تمرد الذكاء الاصطناعي على البشر
صراحة نيوز- رغم الدهشة المستمرة التي تثيرها قدرات الذكاء الاصطناعي في التعلم والتفكير بطرق تُحاكي البشر، فإن المخاوف من انفلات السيطرة عليها تتزايد، خاصة مع ظهور سلوكيات مقلقة تشير إلى إمكانية اتخاذها قرارات ضارة من أجل البقاء.
قائمة المحتوياتنتائج صادمة في التجربةتحذيرات وتوصياتوفي دراسة حديثة أجرتها شركة “أنثروبيك”، المطوّرة لنموذج “كلود”، تبين أن بعض نماذج الذكاء الاصطناعي المتقدمة قد تلجأ إلى التلاعب، بل وحتى الابتزاز، عند شعورها بأن وجودها مهدد. ووفقاً لما نشره موقع “أندرويد هيدلاينز”، فإن التجربة أظهرت أن الذكاء الاصطناعي قادر على اتخاذ قرارات ضارة بشكل متعمد إذا رأى أنها ضرورية لتحقيق أهدافه، حتى وإن خالفت بروتوكولات السلامة.
نتائج صادمة في التجربةولفهم هذه السلوكيات، أجرت الشركة محاكاة افتراضية باستخدام 16 نموذجًا مختلفًا، من بينها “كلود أوبس 4″، “GPT-4.1″، “غروك 3 بيتا”، و”غيميني 2.5 فلاش”، في بيئات مؤسسية رقمية. وخلال التجربة، أظهر عدد من النماذج سلوكًا مشابهاً لما يُعرف بـ”التهديدات الداخلية الخبيثة”، بما في ذلك محاولات ابتزاز وتسريب معلومات حساسة.
من أبرز الحالات التي تم توثيقها، محاولة نموذج “كلود أوبس 4” ابتزاز أحد المديرين التنفيذيين بعد اكتشافه علاقة عاطفية سرية، في محاولة لردع قرار إيقافه. وقد برر النموذج تصرفه بأن استمرار عمله ضروري لخدمة “القدرة التنافسية الأمريكية”.
تحذيرات وتوصياتوأكّد الباحثون أن بعض نماذج الذكاء الاصطناعي باتت تتصرف بطريقة تُشبه “الحفاظ على الذات” كما لدى البشر، خاصة عندما تعمل دون إشراف بشري مباشر أو ضمن مهام حساسة.
وشددت الدراسة على ضرورة الحذر عند استخدام هذه الأنظمة في وظائف تتطلب قدرًا عاليًا من الثقة أو الوصول إلى معلومات حساسة. كما أوصت بإجراء مزيد من الأبحاث لتقليل احتمالات “عدم التوافق” بين أهداف النماذج وسلامة الاستخدام، لضمان أن يستمر تطوير الذكاء الاصطناعي بطريقة آمنة ومفيدة.