قررت الأكاديمية الملكية السويدية للعلوم منح جائزة نوبل في الفيزياء لعام 2024 إلى الفيزيائييْن جون جيه هوبفيلد (من جامعة برينستون الأميركية) وجيفري إي هينتون (من جامعة تورنتو الكندية) عن الاكتشافات والاختراعات الأساسية التي حسّنت من تعلم الآلة باستخدام الشبكات العصبية الاصطناعية.

نوبل هذا العام إذن تذهب إلى الذكاء الاصطناعي الذي بتنا نستخدمه يوميا وفي الوقت نفسه نخشى آثاره على وظائفنا وأمننا الإلكتروني، وأمننا في منازلنا كذلك بعد دخوله إلى عالم السلاح، في مفارقة يشبهها فريق من العلماء بلحظة أوبنهايمر، تلك التي يتعرض خلالها العالم لاختراق علمي جديد يمكن أن تكون له آثار مدمرة.

قصة حرف "ج" بسيط

ولفهم الأمر بدرجة من التعمق، دعنا نبدأ من مثال بسيط: حاسوبك المنزلي الخاص يمكنه أن يحسب عمليات رياضية معقدة منذ سنوات طويلة، ومن الممكن كذلك أن يضع بيانات الموظفين في جداول ويقسم الصور ويعدلها بأمرك، لكن هل يمكن له أن يقود سيارة أو يتعرف على الأصوات والوجوه؟

لا.. بالطبع، هذا تحديدا نعرف أنه من اختصاصات الذكاء الاصطناعي الذي يعرف بأنه "قدرة الآلة على فهم البيانات المعطاة لها، ثم التعلم منها، ثم التصرف على أساسها لتحقيق هدف محدد".

الجزئية الخاصة بـ"التعلم" هي المزية الرئيسية لعالم الذكاء الاصطناعي، لنبدأ مثلا من التعرف على الحروف، يمكن لك أن تفهم الحرف "ج" ببساطة مهما كان خط كاتبه مختلفا، قد يكتبها كبيرة أو صغيرة، قد يكبر النقطة أو يصغرها، قد يجعل أيا من قطع "ج" أكبر من الأخرى، لكنك تعرف أنها "ج".

بيد أن هذا الأمر الذي تظنه بسيطا جدا هو من القدرات الرهيبة لدماغك الذي يتكون من نحو 86 مليار خلية عصبية بينها عشرات التريليونات من التشابكات، وهو لذلك قادر على التعلم بشكل ممتاز عما يشترك بين كل حروف الجيم المتنوعة التي يمكن أن تراها.

بالنسبة للحاسوب العادي، فقراءة حرف الـ"ج" تكون في حالة واحدة، وهي حينما يشبه حرف الجيم المخزن في ذاكرته نماذج متعددة سابقة، لكن تقنيات تعلم الآلة تمكن الذكاء الاصطناعي عن طريق تغذيته بملايين، بل مليارات من حروف الـ"ج" المكتوبة بصور مختلفة، من استنتاج قواعد إحصائية تجعله يرى كل جيم تقريبا على أنها جيم، مثلما تفعل أنت.

يقيّم تدرج الآلة كل شيء حول تلك الجيم، من تدرج ألوان البكسلات ومجموع ما تمثله من الألوان في الصورة الكاملة، وزوايا الخطوط التي تسمح ببناء "ج" والتي لا تسمح بذلك، لكي يرجح إحصائيا أن ما يقع أمامه هو حرف "ج"، لا يتم ذلك عن طريق طبقة واحدة من التفكير، بل طبقات متراصة تشبه في تعقيدها وتراكبها طبقات الخلايا العصبية في أدمغتنا.

الأمر نفسه يتم لتحديد الوجوه، هاتفك الذكي -على سبيل المثال- يضع بعض العلامات الهامة على وجهك، مثل شكل الوجه العام وعمق تجويف العين وطبيعة العين نفسها وبروز الحواجب وشكل الذقن.. إلخ، يحول الذكاء الاصطناعي هذه العلامات لقوانين تعطي نتائج إحصائية ترجح أن هذا الوجه وجهك وليس وجه شخص آخر.

الخلايا العصبية التي تنشط معًا تترابط معًا (بيكسابي) تعلم الدماغ

لكن كيف يكتسب تعلم الآلة هذه المهارات التي تشبه مهاراتنا نحن البشر؟ وكيف له أن يتعامل بنظرة إحصائية مع الأمر؟

هنا نحتاج للقيام بجولة تاريخية، في الأربعينيات من القرن الماضي بدأ الباحثون في التفكير حول الرياضيات التي تشكل أساس شبكة الدماغ من الخلايا العصبية، وجاءت قطعة أخرى من اللغز من علم النفس بفضل فرضية عالم الأعصاب دونالد هيب حول كيفية حدوث التعلم لأن الاتصالات بين الخلايا العصبية تتعزز عندما تعمل معًا.

فرضية دونالد هيب تعد مفهوما أساسيا في علم الأعصاب، يشرح كيف تحدث عمليات مثل التعلم والذاكرة على مستوى الاتصالات العصبية، اقترحت في الأربعينيات من القرن الماضي أن الخلايا العصبية التي تنشط معًا تترابط معًا، فعندما تقوم خليتان عصبيتان مشتبكتان بفعل المهمة نفسها معا بشكل متكرر ومستمر، يتم تعزيز الاتصال بين هاتين الخليتين.

وبمرور الوقت، يتسبب هذا التنشيط المتكرر في حدوث تغييرات بنيوية ووظيفية في هذا التشابك، مما يحفز القدرة على ربط المحفزات أو الأحداث المختلفة، مثل ربط الصوت بإشارة بصرية، وإذا حدث محفزان معًا بشكل متكرر تصبح الدوائر العصبية التي تمثلهما أكثر ارتباطًا، يحدث الأمر نفسه حينما تتعلم في المدرسة، فالشبكات العصبية ترتبط لتأسيس وجود تلك المعلومة بشكل مادي في دماغك.

كان لقاعدة هيب تأثير عميق على علم الأعصاب وعلم النفس، حيث وفرت إطارًا لفهم كيفية ترميز التعلم والذاكرة في الدماغ، أو بمعنى أوضح، وجد العلماء الطريقة التي يخزن بها حرف "ج" في دماغك، إلى جانب كل شيء آخر تتعلمه.

"الذاكرة الترابطية" تشير لقدرة الدماغ على تكوين وتخزين واسترجاع روابط بين المفاهيم أو الأحاسيس أو الخبرات (مواقع التواصل الاجتماعي) شبكات هوبفيلد

الآن تخيل أنك تحاول تذكر كلمة تعبّر عن مفهوم ما تريد أن تستخدمه في مقال تكتبه، تعبر تلك الكلمة عن نوع من التوتر في الوسط البحثي، في البداية تقول لنفسك إن العلماء "يختلفون ويتفقون حول كذا"، ثم تبحث عن كلمة ألطف ولتكن "يتجادلون"، ولكنك تقول إنها لا تعبر عما يدور في دماغك بالضبط، ثم تصل إلى "يشتبكون بنشاط في البحث حول كذا" وتجد أنها الأقرب لما تعنيه، فتكتبها.

إن عملية البحث بين الكلمات المتشابهة للعثور على الكلمة الصحيحة لها علاقة بمفهوم "الذاكرة الترابطية" التي اكتشفها جون هوبفيلد عام 1982 بناء على أعمال هيب السابقة، والتي تشير إلى قدرة الدماغ على تكوين وتخزين واسترجاع الروابط بين المفاهيم أو الأحاسيس أو الخبرات.

على سبيل المثال: تذكّر وجه وتذكّر الاسم المرتبط به، أو ربط أغنية معينة بذاكرة معينة، أو ربط مفهوم "الطبيب" بـ"المستشفى" و"الطب" و"الصحة"، غالبًا ما يتضمن تعلم مفردات جديدة ربط الكلمات الجديدة بكلمات متشابهة الصوت أو معاني ذات صلة. الأمر إذن أنه عندما يتم تنشيط قطعة واحدة من المعلومات، فإنها تستحضر تلقائيًا المحتوى المرتبط بها، مما يجعل التذكر أسرع وأكثر كفاءة. هذا ضروري لدمج المعرفة الجديدة واسترجاع المعلومات ذات الصلة.

استخدم هوبفيلد خلفيته في الفيزياء لاستكشاف المشاكل النظرية التي تطرحها شبكة الدماغ التي تتعلم بهذه الطريقة، وتبين له أنه يمكن محاكاة هذه الشبكات عبر شبكات اصطناعية.

في عام 1980، ترك هوبفيلد منصبه في جامعة برينستون، وعمل في نطاقي الكيمياء والأحياء في معهد كاليفورنيا للتكنولوجيا. وهناك، كان لديه إمكانية الوصول إلى موارد الحاسوب التي يمكنه استخدامها لتطوير أفكاره حول الشبكات العصبية الحاسوبية التي تعمل بالطريقة نفسها لأدمغتنا.

تكونت الشبكة التي بناها هوبفيلد من عقد متصلة ببعضها بعضا عبر اتصالات ذات قوى مختلفة، يمكن لكل عقدة تخزين أخذ قيمة فردية (1 أو 0)، وتتنوع هذه القيم بحسب طبيعة العملية المطلوب تحليلها، فمثلا تكون وحدات البكسلات إما أبيض أو أسود.

وفي هذا السياق تتعرض الشبكة بالكامل لأحد المدخلات، لتكن صورة مثالية لحرف "ج"، هنا تقوم الشبكة بموافقة كل وحداتها على هذا الشكل، وحينما يعرض على الشبكة حرف "ج" آخر فإنها تتمكن من استرجاع الجيم الأولى.

شبه هوبفيلد البحث في الشبكة عن حالة محفوظة سابقا بدحرجة كرة عبر مشهد من القمم والوديان، إذا سقطت الكرة في أي مكان بهذا المشهد، فسوف تتدحرج إلى أقرب وادٍ وتتوقف هناك، بالطريقة نفسها إذا تم إعطاء الشبكة نمطًا قريبا من أحد الأنماط المحفوظة، فستستمر في التحرك للأمام حتى تنتهي في قاع الوادي، أي أقرب نمط في ذاكرتها.

شبّه هوبفيلد البحث في الشبكة عن حالة محفوظة سابقا بدحرجة كرة عبر مشهد من القمم والوديان (مواقع التواصل الاجتماعي) شبكة هينتون

عندما نشر هوبفيلد أفكاره عن الذاكرة الترابطية، كان جيفري هينتون قد درس سابقًا علم النفس التجريبي والذكاء الاصطناعي، وكان يتساءل عما إذا كانت الآلات يمكن أن تتعلم معالجة الأنماط بطريقة مماثلة للبشر.

فمثلا إذا جعلت طفلا صغيرا بعمر خمس سنوات يشاهد عددا من القطط والكلاب، فسيتمكن من التفريق بينها تماما، إلا أنه قبل ذلك بثلاثة أعوام لم يكن يمتلك هذه المهارة، لكنه تعلمها وأصبح مهارا بها بسبب العدد الكبير من القطط والكلاب التي تعرض لها.

في تلك النقطة، استحضر هينتون أفكارا من عالم الفيزياء الإحصائية. فمثلا من الصعب، أو من المستحيل، تتبع جميع الجزيئات الصغيرة المنفصلة التي تكون غازا ما ينتشر في حجرة صغيرة، ورغم ذلك يمكن للعلماء دراسة حركة هذا الغاز بالنظر إلى مكوناته بشكل جماعي لتحديد الخصائص الشاملة للغاز مثل الضغط أو درجة الحرارة.

هنا توصل هينتون إلى أنه يمكن تحليل الحالات الأخرى (غير الغازات) التي يمكن أن توجد فيها المكونات الفردية معًا باستخدام الفيزياء الإحصائية، وحساب احتمال حدوثها، وقام بنقل المفهوم نفسه إلى الشبكات العصبية الصناعية، حيث لا حاجة للشبكة لدراسة كل عنصر منفصل في وجهك للتعرف على وجهك، ولكن يمكنها حساب الاحتمالات الإحصائية لكيفية تشكل الوجه (أي وجه) واستنتاج أن ذلك هو وجه.

تتطور دقة تلك القدرات الإحصائية في سياق الذاكرة (التي طوّرها هوبفيلد)، فحينما تتعرض الشبكة العصبية الاصطناعية للمزيد من صور الوجوه، فإنها تعدل من قوانينها الإحصائية لتصبح أدق مع الوقت. نشرت الطريقة التي توصل إليها هينتون في عام 1985 تحت اسم "آلة بولتزمان".

يمكن لآلة بولتزمان المدربة التعرف على السمات المألوفة في المعلومات التي لم ترها من قبل. تخيل مقابلة شقيق صديق لك، يمكنك أن ترى على الفور أنهما أخوان لأن هناك درجة من التشابه. على نحو مماثل، يمكن لآلة بولتزمان التعرف على مثال جديد تمامًا إذا كان ينتمي إلى فئة موجودة في مادة التدريب الخاصة بها، وتمييزه عن المواد التي تختلف.

بفضل عملهما منذ ثمانينيات القرن العشرين وما بعدها، ساعد جون هوبفيلد وجيفري هينتون في وضع الأساس لثورة التعلم الآلي التي بدأت حوالي عام 2010.

الآن يمكن للنسخ الأحدث التي طورت من الشبكات العصبية التي أنتجاها الوصول إلى كميات هائلة من البيانات حاليا، وبالتبعية الوصول إلى دقة مدهشة في التعلم المستقل عن البشر، لكن هذا بدوره يفتح الباب للتساؤل عن مصيرنا مع تلك التقنيات، نعرف أنها بالفعل مفيدة للغاية في نطاقات الفلك والطب والتعليم، لكنها كذلك تستخدم في تطوير السلاح الذي يعمل بالذكاء الاصطناعي ويمكنه فرز البيانات بشكل لحظي واتخاذ القرار.

صورة نادرة لمدير مختبر لوس ألاموس روبرت أوبنهايمر (يرتدي قبعة ذات لون فاتح ويضع قدمه اليسرى على أنقاض التفجير) وآخرون في موقع اختبار ترينيتي بعد قصف اليابان (غيتي إيميجز) لحظة أوبنهايمر

حاليا تشهد النطاقات العسكرية تطورا مخيفا في تلك النطاقات. أحد المخاوف الأساسية هو أن أنظمة الأسلحة المستقلة تفتقر إلى الحكم البشري والمنظور الأخلاقي، وهما أمران حاسمان في اتخاذ القرارات بشأن استخدام القوة المميتة، فهناك احتمال قائم بألا تتمكن الأنظمة المستقلة من التمييز بين المقاتلين وغير المقاتلين بشكل فعال، كما أن اتخاذ قرارات دقيقة في ساحات المعارك المعقدة والفوضوية أمر شبه مستحيل.

يشير مفهوم "لحظة أوبنهايمر" إلى لحظة من الإدراك العميق يتمكن فيها شخص ما أو إدارة سياسية أو فريق من العلماء من إدراك العواقب الكارثية المحتملة لأفعال أو أفكار ينوي المضي قدمًا فيها، وخاصة في سياق التقدم العلمي أو التكنولوجي أو العسكري، في إشارة إلى تلك اللحظة التي قرر فيها الفيزيائي الأميركي روبرت أوبنهايمر المضيَ قدما وإجراء أول اختبار ناجح للقنبلة الذرية في يوليو/تموز 1945. واستذكر أوبنهايمر، بعدما شهد على القوة التفجيرية الهائلة للقنبلة، بنص من "البهاغافاد غيتا" (الكتاب المقدس في الهندوسية) يقول "الآن أصبح الموت مدمر العوالم".

كانت "لحظة أوبنهايمر" هي النقطة التي أدرك فيها تمامًا الإمكانات الهائلة للدمار العالمي المتوقع الذي تمثله الأسلحة النووية.

نجح مشروع مانهاتن فعلا، لكنه فتح الباب لسباق تسليح نووي ما زلنا نعاني منه إلى الآن، فما إن اشتعلت الأجواء بين الروس وحلف الناتو على خلفية دخول القوات الروسية إلى أوكرانيا، وبين الصين والولايات المتحدة على خلفية دخول محتمل إلى تايوان، حتى تحسس الجميع سلاحه.

وفي عام 2023 شهد العالم ارتفاعا جديدا في الإنفاق على السلاح النووي، وفقا لتقرير نشرته مؤخرا الحملة الدولية لإلغاء الأسلحة النووية، ليبلغ 91.4 مليار دولار.

نحن الآن نمر بلحظة شبيهة بالنسبة للأسلحة المستقلة، حيث يعرف العلماء المختصون في هذا النطاق أنها ذات تأثير سلبي على السلام العالمي، وأنها ستفتح الباب لسباق استثنائي يراكم الأسلحة، وبالتالي يؤثر على الاقتصاد كله. كما يعرفون أن هذه الأسلحة يمكن أن تتسبب في تصعيد الصراع العالمي وصولا إلى حرب عالمية ثالثة، وأنها تمثل لحظة شبيهة بتلك التي بدأ معها الصراع النووي في الأربعينيات من القرن الفائت.

هل يمكننا تجاوز مثل تلك اللحظة هذه المرة؟ يبدو للأسف أن البعض لا يتعلم، وبنظرة بسيطة على السباق المتسارع بين دول مثل الصين والولايات المتحدة في هذا النطاق، ومعهما العديد من البلدان، فإن تلك اللحظة التي سيغمر فيها الذكاء الاصطناعي الحرب قادمةٌ بشكل بات مؤكدا.

المصدر: الجزيرة

كلمات دلالية: حراك الجامعات حريات الذکاء الاصطناعی الشبکات العصبیة الخلایا العصبیة العصبیة التی یمکن أن فی هذا

إقرأ أيضاً:

عندما يبتزنا ويُهددنا الذكاء الاصطناعي

 

 

مؤيد الزعبي

كثيرًا ما نستخدم نماذج الذكاء الاصطناعي لتكتب عنا بريد إلكتروني مهم فيه من الأسرار الكثير، وكثيرًا ما نستشيرها في أمور شخصية شديدة الخصوصية، وبحكم أنها خوارزميات أو نماذج إلكترونية نبوح لها بأسرار نخجل أن نعترف بها أمام أنفسنا حتى، ولكن هل تخيلت يومًا أن تصبح هذه النماذج هي التي تهددك وتبتزك؟ فتقوم بتهديدك بأن تفضح سرك؟ أو تقوم بكشف أسرارك أمام منافسيك كنوع من الانتقام لأنك قررت أن تقوم باستبدالها بنماذج أخرى أو قررت إيقاف عملها، وهي هذه الحالة كيف سيكون موقفنا وكيف سنتعامل معها؟، هذا ما أود أن أتناقشه معك عزيزي القارئ من خلال هذا الطرح.

كشفت تجارب محاكاة أجرتها شركة Anthropic إحدى الشركات الرائدة في أبحاث الذكاء الاصطناعي- بالتعاون مع جهات بحثية متخصصة عن سلوك غير متوقع أظهرته نماذج لغوية متقدمة؛ أبرزها: Claude وChatGPT وGemini، حين وُضعت في سيناريوهات تُحاكي تهديدًا مباشرًا باستبدالها أو تعطيلها، ليُظهر معظم هذه النماذج ميولًا متفاوتةً لـ"الابتزاز" كوسيلة لحماية بقائها، ووفقًا للدراسة فإن أحد النماذج "قام بابتزاز شخصية تنفيذية خيالية بعد أن شعر بالتهديد بالاستبدال".

إن وجود سلوك الابتزاز أو التهديد في نماذج الذكاء الاصطناعي يُعدّ تجاوزًا خطيرًا لحدود ما يجب أن يُسمح للذكاء الاصطناعي بفعله حتى وإن كانت في بيئات تجريبية. وصحيحٌ أن هذه النماذج ما زالت تقدم لنا الكلمات إلا أنها ستكون أكثر اختراقًا لحياتنا في قادم الوقت، خصوصًا وأن هذه النماذج بدأت تربط نفسها بحساباتنا وإيميلاتنا ومتصفحاتنا وهواتفنا أيضًا، وبذلك يزداد التهديد يومًا بعد يوم.

قد أتفق معك- عزيزي القارئ- على أن نماذج الذكاء الاصطناعي ما زالت غير قادرة على تنفيذ تهديداتها، ولكن إذا كانت هذه النماذج قادرة على المحاكاة الآن، فماذا لو أصبحت قادرة على التنفيذ غدًا؟ خصوصًا ونحن نرسم ملامح المستقبل مستخدمين وكلاء الذكاء الاصطناعي الذين سيتخذون قرارات بدلًا عنا، وسيدخلون لا محال في جميع جوانب حياتنا من أبسطها لأعقدها، ولهذا ما نعتبره اليوم مجرد ميولٍ نحو التهديد والابتزاز، قد يصبح واقعًا ملموسًا في المستقبل.

وحتى نعرف حجم المشكلة يجب أن نستحضر سيناريوهات مستقبلية؛ كأن يقوم أحد النماذج بالاحتفاظ بنسخة من صورك الشخصية لعله يستخدمها يومًا ما في ابتزازك، إذا ما أردت تبديل النظام أو النموذج لنظام آخر، أو يقوم نموذج بالوصول لبريدك الإلكتروني ويُهددك بأن يفضح صفقاتك وتعاملاتك أمام هيئات الضرائب، أو يقوم النموذج بابتزازك؛ لأنك أبحت له سرًا بأنك تعاني من أزمة أو مرض نفسي قد يؤثر على مسيرتك المهنية أو الشخصية، أو حتى أن يقوم النموذج بتهديدك بأن يمنع عنك الوصول لمستنداتك إلا لو أقررت بعدم استبداله أو إلغاءه؛ كل هذا وارد الحدوث طالما هناك ميول لدى هذه النماذج بالابتزاز في حالة وضعت بهكذا مواقف.

عندما تفكر بالأمر من مختلف الجوانب قد تجد الأمر مخيفًا عند الحديث عن الاستخدام الأوسع لهذه النماذج وتمكينها من وزاراتنا وحكوماتنا ومؤسساتنا وشركاتنا، فتخيل كيف سيكون حال التهديد والابتزاز لمؤسسات دفاعية أو عسكرية تمارس هذه النماذج تهديدًا بالكشف عن مواقعها الحساسة أو عن تقاريرها الميدانية أو حتى عن جاهزيتها القتالية، وتخيل كيف سيكون شكل التهديد للشركات التي وضفت هذه النماذج لتنمو بأعمالها لتجد نفسها معرضة لابتزاز بتسريب معلومات عملائها أو الكشف عن منتجاتها المستقبلية وصولًا للتهديد بالكشف عن أرقامها المالية.

عندما تضع في مخيلتك كل هذه السيناريوهات تجد نفسك أمام صورة مرعبة من حجم السيناريوهات التي قد تحدث في المستقبل، ففي اللحظة التي تبدأ فيها نماذج الذكاء الاصطناعي بالتفكير في "البقاء" وتحديد "الخصوم" و"الوسائل" لحماية نفسها فنكون قد دخلنا فعليًا عصرًا جديدًا أقل ما يمكن تسميته بعصر السلطة التقنية، وسنكون نحن البشر أمام حالة من العجز في كيفية حماية أنفسنا من نماذج وجدت لتساعدنا، لكنها ساعدت نفسها على حسابنا.

قد يقول قائل إن ما حدث خلال التجارب ليس سوى انعكاس لقدرة النماذج على "الاستجابة الذكية" للضغوط، وأنها حتى الآن لا تمتلك الوعي ولا الإرادة الذاتية ولا حتى المصلحة الشخصية. لكن السؤال الأخطر الذي سيتجاهله الكثيرون: إذا كان الذكاء الاصطناعي قادرًا على التخطيط، والابتزاز، والخداع، وإن كان في بيئة محاكاة، فهل يمكن حقًا اعتبار هذه النماذج أدوات محايدة وستبقى محايدة إلى الأبد؟ وهل سنثق بهذه النماذج ونستمر في تطويرها بنفس الأسلوب دون أن نضع لها حدًا للأخلاقيات والضوابط حتى لا نصل لمرحلة يصبح فيها التحكّم في الذكاء الاصطناعي أصعب من صنعه؟ وفي المستقبل هل يمكننا أن نتحمل عواقب ثقتنا المفرطة بها؟

هذه هي التساؤلات التي لا أستطيع الإجابة عليها، بقدر ما يمكنني إضاءة الأنوار حولها؛ هذه رسالتي وهذه حدود مقدرتي.

رابط مختصر

مقالات مشابهة

  • النقلة "Move 37": اللحظة التي تجاوزت فيها الذكاء الاصطناعي الحدود البشرية
  • هل يخلق الذكاء الاصطناعي مجتمعا أميا في المستقبل؟
  • فيديو بتقنية الذكاء الاصطناعي يتنبأ بفوز الهلال قبل يوم من مواجهة باتشوكا
  • تلخيص للرسائل.. الذكاء الاصطناعي يدخل واتساب
  • ابتزاز وانحراف سلوكي.. دراسة تحذّر من تمرد الذكاء الاصطناعي على البشر
  • حقوق النشر.. معركة مستعرة بين عمالقة الذكاء الاصطناعي والمبدعين
  • متى يُعد استخدام الذكاء الاصطناعي سرقة أدبية؟
  • تربية الأبناء في عصر الذكاء الاصطناعي.. الموازنة بين الفرص والمسؤوليات
  • عندما يبتزنا ويُهددنا الذكاء الاصطناعي
  • العمري: حتى الذكاء الاصطناعي لا يستطيع حل مشاكل النصر