إيلون ماسك يعلن إعادة كتابة التاريخ البشري عبر الذكاء الاصطناعي
تاريخ النشر: 23rd, June 2025 GMT
واشنطن
أثار الملياردير الأمريكي إيلون ماسك موجة جديدة من الجدل بعد أن كشف عبر منصة “إكس” عن خطة لإعادة تدريب روبوت الذكاء الاصطناعي التابع له “غروك” (Grok) على ما وصفه بنسخة “مصححة ومنقّحة” من المعرفة البشرية. وتهدف هذه الخطوة – بحسب ماسك – إلى إزالة ما يعتبره “أخطاء متداولة” وإضافة معلومات يراها “مفقودة”، ما فتح باب التساؤلات حول نوايا ماسك وإمكانية التأثير على المفاهيم التاريخية والعلمية الراسخة.
وأوضح ماسك أن البيانات التي تُستخدم حاليًا لتدريب نماذج الذكاء الاصطناعي تحتوي على كم هائل من “المعلومات المضللة أو التافهة”، مشيرًا إلى أن مشروعه يسعى لإعادة تشكيل “كوربس المعرفة البشرية”، أي مجموع المحتوى المكتوب الذي أنتجه الإنسان عبر العصور. وأكد أن الإصدار الجديد من “غروك” سيكون أكثر دقة وجرأة في طرح الحقائق من منظور مختلف، وهو ما اعتبره البعض محاولة “للتحكم في الرواية التاريخية للعالم”.
المثير أن “غروك” واجه خلال الأشهر الماضية انتقادات لاذعة بعد نشره تصريحات مثيرة للجدل حول قضايا سياسية وعرقية، ما زاد من المخاوف بشأن حيادية الذكاء الاصطناعي. وبينما يرى البعض أن مشروع ماسك يمثل خطوة نحو تصحيح مسار المعرفة، يرى آخرون أنه يشكل خطرًا حقيقيًا على الحقيقة وتاريخ البشرية، خاصة في ظل غياب معايير رقابية واضحة تحكم مثل هذه المبادرات التكنولوجية الجريئة.
المصدر: صحيفة صدى
كلمات دلالية: إيلون ماسك التاريخ البشري الذكاء الاصطناعي المبادرات التكنولوجية ماسك الذکاء الاصطناعی
إقرأ أيضاً:
الذكاء الاصطناعي ييثير قلق العالم .. ما سبب فرض بعض الدول قيودا على استخدامه؟
- ما هو الذكاء الاصطناعي؟ وكيف يعمل؟ ولماذا يثير قلق البعض؟- الذكاء الاصطناعي التوليدي ما هو وما قدراته؟- الذكاء الاصطناعي بين التقدم المذهل والمخاوف البيئية والأخلاقية
أصبح الذكاء الاصطناعي جزءا متزايدا من حياتنا اليومية خلال العقد الأخير، إذ يستخدم لتخصيص محتوى شبكات التواصل الاجتماعي، والتعرف على الوجوه في صور الهواتف الذكية، وحتى تمهيد الطريق لاكتشافات طبية جديدة.
لكن مع صعود أدوات الذكاء الاصطناعي التوليدي، مثل ChatGPT من OpenAI وMeta AI، تزايدت المخاوف بشأن تأثير هذه التكنولوجيا على البيئة، والقضايا الأخلاقية المرتبطة بها، وكذلك طريقة استخدام البيانات.
الذكاء الاصطناعي هو تقنية تتيح للحواسيب معالجة كميات هائلة من البيانات، والتعرف على الأنماط، وتنفيذ تعليمات محددة بناء على تلك البيانات.
ورغم أن الحواسيب لا تمتلك القدرة على التفكير أو التعاطف أو المنطق كما يفعل البشر، فإن الباحثين طوروا أنظمة تحاكي بعض مهارات الذكاء البشري مثل التعلم واتخاذ القرار.
يستخدم الذكاء الاصطناعي في التنبؤ بما قد يشتري المستخدم عبر الإنترنت، وفي تشغيل المساعدين الصوتيين مثل سيري وأليكسا، كما يوظف في تطوير السيارات ذاتية القيادة.
كذلك، تعتمد منصات مثل فيسبوك وتيك توك على الذكاء الاصطناعي لاختيار المنشورات التي تظهر للمستخدمين، بينما تستعين خدمات مثل Spotify وDeezer به لتوصية الأغاني.
في المجال الطبي، يستخدم الذكاء الاصطناعي للمساعدة في اكتشاف الأورام، وتحليل صور الأشعة، وتسريع عمليات التشخيص، وتحديد علاجات جديدة.
الذكاء الاصطناعي التوليدي هو فرع من الذكاء الاصطناعي يستخدم لإنشاء محتوى جديد يبدو كأنه من صنع الإنسان، يتم ذلك من خلال تعلم أنماط اللغة والصور والموسيقى من بيانات ضخمة مأخوذة من الإنترنت.
تطبيقات مثل ChatGPT وDeepSeek تستخدم لإنشاء نصوص، صور، أكواد برمجية وغيرها، بينما يمكن لتطبيقات مثل Midjourney أو Veo 3 توليد صور وفيديوهات من أوامر نصية بسيطة.
حتى الأغاني يمكن توليدها بتقنيات الذكاء الاصطناعي، وقد ذاع صيت بعضها لدرجة أربكت الجمهور حول ما إذا كانت حقيقية أم لا.
لماذا يثير الذكاء الاصطناعي الجدل؟رغم ما يوفره من إمكانيات هائلة، فإن التوسع السريع في استخدام الذكاء الاصطناعي أثار قلق العديد من الخبراء، حيث حذر صندوق النقد الدولي من أن الذكاء الاصطناعي قد يؤثر على نحو 40% من الوظائف عالميا، مما قد يزيد من الفجوة الاقتصادية.
أما العالم جيفري هينتون، المعروف بلقب “أبو الذكاء الاصطناعي”، فقد عبر عن مخاوفه من أن يؤدي الذكاء الاصطناعي القوي إلى تهديد وجود البشر، وهو رأي لم يشاركه فيه زميله يان ليكون.
كما تثار مخاوف من أن تكرر أنظمة الذكاء الاصطناعي التحيزات المجتمعية مثل العنصرية والتمييز الجنسي، نظرا لأنها تتعلم من بيانات عامة مليئة بهذه الميول.
وقد وقعت حالات مثيرة للجدل مثل تصنيف نظام تابع لفيسبوك رجالا سودا على أنهم “قرود”، واكتشاف تحيز عنصري في خوارزمية قص الصور على تويتر.
رغم تطورها، لا تزال هذه الأنظمة ترتكب أخطاء واضحة، مثل إنشاء صور بأشخاص لديهم عدد غير طبيعي من الأصابع، أو اختراع معلومات غير صحيحة (ما يعرف بـالهلوسة).
شركة آبل على سبيل المثال، أوقفت ميزة ذكاء اصطناعي جديدة بعد تلقي شكاوى من تلخيصات خاطئة لأخبار، شملت اتهاما خاطئا لرجل بأنه انتحر.
الاعتماد المتزايد على الذكاء الاصطناعي في المدارس وأماكن العمل أثار قلقا من سوء الاستخدام، سواء من قبل طلاب يستعينون به لحل واجباتهم، أو موظفين يستخدمونه دون معرفة أرباب العمل.
كما تصاعدت معارضة فنانين وكتاب وموسيقيين، اتهموا شركات تطوير الذكاء الاصطناعي باستخدام أعمالهم لتدريب الأنظمة دون إذن أو تعويض.
ففي أكتوبر 2024، وقع آلاف الفنانين، من بينهم بيورن أولفيوس من فرقة ABBA، والكاتبة جوان هاريس، والممثلة جوليان مور، بيانا وصف الذكاء الاصطناعي بأنه “تهديد كبير وغير عادل” لأرزاقهم.
التأثير البيئي للذكاء الاصطناعيرغم عدم وجود تقدير دقيق لكمية الطاقة التي يستهلكها الذكاء الاصطناعي، تشير بعض التقديرات إلى أن القطاع قد يستهلك قريبا طاقة توازي استهلاك هولندا، فتصنيع رقائق المعالجة القوية وتشغيل مراكز البيانات الضخمة يتطلب كميات هائلة من الكهرباء والمياه.
بعض الشركات الكبرى بدأت في البحث عن حلول لتقليل استهلاك المياه أو إعادة استخدامها، فيما اعتمدت أخرى على أنظمة تبريد بالهواء بدلا من المياه، ومع ذلك، فإن خبراء وناشطين بيئيين أعربوا عن مخاوف من أن يؤثر الذكاء الاصطناعي على موارد المياه العذبة، خصوصا مع تزايد عدد مراكز البيانات.
في فبراير الماضي، حذرت جهات في بريطانيا من أن سعي الحكومة لأن تصبح رائدة عالميا في الذكاء الاصطناعي قد يجهد إمدادات المياه، وفي سبتمبر 2024، أعادت جوجل النظر في خطط إنشاء مركز بيانات في تشيلي بسبب أزمة الجفاف.
القوانين المنظمة للذكاء الاصطناعيبدأت بعض الحكومات بفرض تشريعات تنظم استخدام الذكاء الاصطناعي، الاتحاد الأوروبي مثلا أصدر قانون الذكاء الاصطناعي الذي يقيد استخدام الأنظمة عالية المخاطر في التعليم والرعاية الصحية والانتخابات، ويحظر بعض التطبيقات كليا.
في الصين، يطلب من مطوري الذكاء الاصطناعي حماية بيانات المواطنين وضمان الشفافية، لكنهم خاضعون أيضا لقوانين الرقابة الصارمة، أما في بريطانيا، فقد أعلن رئيس الوزراء كير ستارمر أن بلاده ستختبر وتفهم التكنولوجيا قبل فرض أي تنظيمات.
كما أن الولايات المتحدة والمملكة المتحدة أسستا معاهد لأمان الذكاء الاصطناعي لتقييم المخاطر والنماذج المتقدمة، حيث وقعتا اتفاقا في 2024 للتعاون في تطوير آليات اختبار صارمة، إلا أنهما لم توقعا على إعلان دولي في فبراير 2025 يدعو إلى مقاربة مفتوحة وشاملة ومستدامة للتقنية.
وفي سياق متصل، بدأت عدة دول من بينها بريطانيا بتشديد الرقابة على استخدام الذكاء الاصطناعي في إنتاج الصور العارية المزيفة أو المحتوى المتعلق بإساءة معاملة الأطفال، بعد ارتفاع عدد الحوادث المرتبطة بهذه التطبيقات.