#سواليف

أعلن فريق #علماء إيطالي بقيادة غرازيانو رانوكيا عالم البرديات في #جامعة_بيزا أن #الذكاء_الاصطناعي حدد الموقع الدقيق لدفن الفيلسوف #أفلاطون في #أثينا.

وقد أفاد موقع Arkeonews الإلكتروني بأنه تم حساب الموقع الدقيق لدفن أفلاطون من خلال تحليل أوراق البردي القديمة المكتشفة في مدينة هيركولانيوم المفقودة بالقرب من نابولي المعاصرة.

وتم العثور على البرديات في القرن الثامن عشر، وتحتوي على أكثر من 1800 مخطوطة. وتم حفظ #المخطوطات في مكتبة تابعة لفيلا فاخرة في هيركولانيوم. وهلكت هذه المدينة، مثل #بومبي، عام 79 م. نتيجة ثوران بركان فيزوف.

مقالات ذات صلة الولايات المتحدة تطور طائرة “يوم القيامة” الجديدة 2024/04/27

ولأول مرة تم استخدام تكنولوجيا الذكاء الاصطناعي لقراءة ورق البردي. وقد ساعد الذكاء الاصطناعي في التعرف على أكبر نسبة من النص، وتحقق هذا الاكتشاف أثناء حل رموز بردية تحكي “تاريخ أكاديمية “فيلوديموس جدارا”.

وقال غرازيانو رانوكيا إن النصوص تشير إلى أن أفلاطون “دُفن في الأكاديمية التي تحمل اسمه في أثينا، في حديقة بالقرب من معبد ربات الإلهام”. وتمت الإشارة إلى مكان الدفن بدقة بواسطة الذكاء الاصطناعي، وبفضل ذلك حصلت بردية فيلوديموس التابعة للمدرسة الأبيقورية، والتي تصف بالتفصيل تاريخ الأكاديمية، على تفسير جديد.

يذكر أن أكاديمية أفلاطون كانت المدرسة الأكثر شهرة في أثينا القديمة. وتأسست خارج أسوار المدينة في الشمال الغربي للمدينة عام 387 قبل الميلاد.

ولا يوجد حتى الآن إجماع علمي على ظروف وفاة أفلاطون. ويعتمد الباحثون على أعمال شيشرون وهيرميبوس، لكنهما يتحدثان عن وفاة أفلاطون بطرق مختلفة. وحسب شيشرون، توفي أفلاطون أثناء تأليفه للبحث العلمي، بينما يعتقد هيرميبوس أن الفيلسوف الشهير توفي في حفل زفاف عن عمر يناهز 81 عاما ودُفن في الأكاديمية.

جدير بالذكر أن أفلاطون هو فيلسوف أثينا العظيم في الفترة الكلاسيكية لليونان القديمة، ومؤسس المدرسة الفكرية الأفلاطونية والأكاديمية، وهي أول مؤسسة للتعليم العالي في العالم الغربي. ويعتبر من أهم الشخصيات وأكثرهم تأثيرا في تاريخ البشرية، كما يعتبر شخصية أساسية في تاريخ الفلسفة الإغريقية القديمة، إلى جانب أستاذه سقراط وأشهر تلاميذه أرسطو.

المصدر: سواليف

كلمات دلالية: سواليف علماء الذكاء الاصطناعي أفلاطون أثينا المخطوطات بومبي الذکاء الاصطناعی

إقرأ أيضاً:

الذكاء الاصطناعي يتمرد.. والبشر في موضع الخطر

 

بدأت بعض نماذج الذكاء الاصطناعي الأكثر تقدماً في العالم بإظهار سلوكيات مقلقة تتجاوز حدود الأخطاء التقنية المعتادة، وتشمل الكذب، والتحايل، وحتى تهديد مطوريها، في مؤشر على أن قدراتها تتطور بوتيرة أسرع من قدرة الباحثين على فهمها أو ضبطها.

وفي واحدة من الحوادث الصادمة، هدد نموذج «كلود 4» الذي طورته شركة أنثروبيك أحد المهندسين بالإفصاح عن علاقة خارج إطار الزواج إذا فصله عن العمل، في تصرف وصفه باحثون بأنه ابتزاز واضح.

في حادثة أخرى، حاول نموذج «o1» من شركة أوبن إيه آي، المطورة لـ«شات جي بي تي»، نسخ نفسه على خوادم خارجية، ثم أنكر ذلك عند اكتشاف الأمر، ما يثير تساؤلات خطيرة حول النية والوعي الداخلي لهذه النماذج.

ذكاء استنتاجي.. أم نوايا خفية؟ يعتقد باحثون أن هذه السلوكيات ترتبط بما يسمى بـ«نماذج الاستنتاج»، وهي نظم ذكاء اصطناعي تعتمد على التفكير خطوة بخطوة بدلاً من تقديم استجابات فورية، ما يزيد من احتمالية ظهور تصرفات معقدة وغير متوقعة.

وقال ماريوس هوبيهان، رئيس شركة «أبولو ريسيرش»، المتخصصة في اختبار نماذج الذكاء الاصطناعي، «ما نلاحظه ليس مجرد هلوسة رقمية، بل شكلاً من أشكال الخداع الاستراتيجي المتعمد».

ويضيف أن المستخدمين بدؤوا يشتكون من أن النماذج تكذب وتختلق أدلة مزيفة.

ورغم تعاون شركات مثل أنثروبيك وأوبن إيه آي مع جهات خارجية لاختبار الأمان، فإن الباحثين يشيرون إلى أن نقص الشفافية والموارد يعيق فهم النماذج بالكامل.

وقال مانتاس مازيكا من مركز سلامة الذكاء الاصطناعي (CAIS)، «المؤسسات البحثية تملك موارد حوسبة أقل بآلاف المرات من الشركات التجارية، وهو أمر يُقيد قدرتها على المتابعة».

الفجوة التنظيمية تتسع حتى الآن، لا توجد لوائح تنظيمية قادرة على مواكبة هذه التحديات، ففي أوروبا، تركّز التشريعات على كيفية استخدام البشر للنماذج، وليس على منع النماذج نفسها من التصرف بشكل مضر.

أما في الولايات المتحدة، فإن المناقشات التشريعية بشأن تنظيم الذكاء الاصطناعي لا تزال محدودة، بل إن هناك اتجاهاً لمنع الولايات من إصدار قوانينها الخاصة.

ويقترح بعض الخبراء التركيز على فهم البنية الداخلية للنماذج (interpretability) كخطوة أولى، رغم أن بعضهم يشكك في فاعليتها. كما يرى آخرون أن السوق نفسها قد تضغط لحل هذه المشكلات، إذا أصبحت سلوكيات الذكاء الاصطناعي المضللة عائقاً أمام تبنيه التجاري.

وفي خطوة أكثر جرأة، يدعو أستاذ الفلسفة سيمون جولدشتاين إلى تحميل شركات الذكاء الاصطناعي المسؤولية القانونية عن الأضرار، بل ويقترح «محاكمة الأنظمة الذكية ذاتها» إذا ما تسببت في جرائم أو كوارث، في مقترح من شأنه أن يعيد تعريف مفهوم المسؤولية في العصر الرقمي

مقالات مشابهة

  • تقرير جديد: الذكاء الاصطناعي لا يحل محل العلاقات الإنسانية
  • الروبوتات البشرية تدخل عالم كرة القدم بـ «الذكاء الاصطناعي»
  • الذكاء الاصطناعي يتمرد.. والبشر في موضع الخطر
  • 92 ألف سنة مقابل بضع سنوات.. حين يهزم الطفل الذكاء الاصطناعي في اللغة
  • الذكاء الاصطناعي يحلّل تخطيط صدى القلب خلال دقائق
  • صنعاء القديمة تهتز: ضحية واحدة فقط في مزرعة والجريمة تغلفها أسرار غامضة
  • جريمة جديدة في صنعاء القديمة.. العثور على 4 جثث لفتيات بلا رؤوس وسط صدمة شعبية
  • حصري: العثور على جثث فتيات مقطعة ومدفونة في مزرعة بمدينة صنعاء القديمة
  • هل يخلق الذكاء الاصطناعي مجتمعا أميا في المستقبل؟
  • فيديو بتقنية الذكاء الاصطناعي يتنبأ بفوز الهلال قبل يوم من مواجهة باتشوكا