بوابة الوفد:
2025-06-16@13:56:33 GMT

كيف غيرت ChatGPT العالم في عام واحد فقط؟

تاريخ النشر: 1st, December 2023 GMT

على مدار شهرين من ظهوره لأول مرة في نوفمبر 2022، تزايدت شعبية ChatGPT، بدءًا من التحف المتخصصة عبر الإنترنت إلى 100 مليون مستخدم نشط شهريًا - وهو أسرع نمو لقاعدة المستخدمين في تاريخ الإنترنت. وفي أقل من عام، حصلت على دعم أكبر الشركات في وادي السيليكون، وتم إدخالها في عدد لا يحصى من التطبيقات بدءًا من الأوساط الأكاديمية والفنون إلى التسويق والطب والألعاب والحكومة.

باختصار، ChatGPT موجود في كل مكان تقريبًا. لقد ظلت صناعات قليلة بمنأى عن التبني الفيروسي لأدوات الذكاء الاصطناعي التوليدي. في الذكرى السنوية الأولى لإصداره، دعونا نلقي نظرة على العام الذي أوصلنا فيه ChatGPT إلى هنا.

تعمل شركة OpenAI على تطوير GPT (المحول التوليدي المُدرب مسبقًا)، وهو نموذج اللغة الكبير الذي يعمل عليه ChatGPT، منذ عام 2016 - حيث كشفت النقاب عن GPT-1 في عام 2018 وكررته إلى GPT-3 بحلول يونيو 2020. مع إصدار 30 نوفمبر 2022 لـ جاء GPT-3.5 ChatGPT، وهو وكيل رقمي قادر على الفهم السطحي لمدخلات اللغة الطبيعية وإنشاء ردود مكتوبة عليها. بالتأكيد، كان بطيئًا إلى حد ما في الإجابة ولم يتمكن من التحدث عن الأسئلة حول أي شيء حدث بعد سبتمبر 2021 - ناهيك عن مشكلاته في الإجابة على الاستفسارات التي تحتوي على معلومات مضللة أثناء نوبات "الهلوسة" - ولكن حتى هذا التكرار الأول الفظ أظهر قدرات تتجاوز بكثير ما يمكن للمساعدين الرقميين الآخرين مثل Siri و Alexa توفيره.

لا يمكن أن يكون توقيت إصدار ChatGPT أفضل. لقد تم بالفعل تعريف الجمهور بمفهوم الذكاء الاصطناعي التوليدي في أبريل من ذلك العام باستخدام DALL-E 2، وهو مولد تحويل النص إلى صورة. كان DALL-E 2، بالإضافة إلى Stable Diffusion وMidjourney والبرامج المماثلة، بمثابة نقطة دخول مثالية منخفضة العوائق لعامة الناس لتجربة هذه التكنولوجيا الثورية الجديدة. لقد حققوا نجاحًا ساحقًا على الفور، حيث ظهرت حسابات Subreddits وTwitter بين عشية وضحاها على ما يبدو لنشر لقطات شاشة لأكثر السيناريوهات غرابة التي يمكن أن يتخيلها المستخدمون. ولم يقتصر الأمر على الإنترنت النهائي الذي احتضن توليد صور الذكاء الاصطناعي، بل دخلت التكنولوجيا على الفور إلى الخطاب السائد أيضًا، والأرقام الدخيلة وكل شيء.

لذلك، عندما تم إطلاق ChatGPT في نوفمبر الماضي، كان الجمهور مهيئًا بالفعل لفكرة جعل أجهزة الكمبيوتر تصنع المحتوى بناءً على توجيهات المستخدم. لم تكن القفزة المنطقية من جعلها تصنع كلمات بدلًا من الصور كبيرة، إذ كان الناس يستخدمون بالفعل إصدارات مماثلة وأدنى جودة في هواتفهم لسنوات مع مساعديهم الرقميين.
إن القول بأن ChatGPT قد تم استقباله بشكل جيد يعني أن السفينة Titanic عانت من ثني حاجز صغير في رحلتها الأولى. لقد كان نجمًا قطبيًا، بأحجام أكبر من الضجيج المحيط بـ DALL-E ومولدات الصور الأخرى. لقد فقد الناس عقولهم تمامًا بشأن الذكاء الاصطناعي الجديد ورئيسه التنفيذي سام التمان. طوال شهر ديسمبر 2022، ارتفعت أرقام استخدام ChatGPT بشكل كبير مع قيام المزيد والمزيد من الأشخاص بتسجيل الدخول لتجربته بأنفسهم.

بحلول يناير التالي، أصبح ChatGPT ظاهرة معتمدة، حيث تجاوز 100 مليون مستخدم نشط شهريًا في شهرين فقط. كان ذلك أسرع من TikTok أو Instagram، ويظل أسرع اعتماد مستخدم يصل إلى 100 مليون في تاريخ الإنترنت.

لقد ألقينا أيضًا أول نظرة على الإمكانات التخريبية التي يقدمها الذكاء الاصطناعي التوليدي عندما تمكن ChatGPT من اجتياز سلسلة من اختبارات كلية الحقوق (وإن كان ذلك عن طريق جلد أسنانه الرقمية). في ذلك الوقت تقريبًا، وسّعت Microsoft شراكتها الحالية في مجال البحث والتطوير مع OpenAI لتصل قيمتها إلى 10 مليارات دولار في شهر يناير من ذلك العام. وهذا الرقم كبير بشكل مثير للإعجاب، وهو على الأرجح السبب وراء استمرار ألتمان في منصبه.

ومع حلول شهر فبراير، استمرت أعداد مستخدمي ChatGPT في الارتفاع، حيث تجاوزت إجمالي مليار مستخدم بمتوسط أكثر من 35 مليون شخص يوميًا يستخدمون البرنامج. في هذه المرحلة، أفادت التقارير أن قيمة OpenAI تقل قليلاً عن 30 مليار دولار وكانت Microsoft تبذل قصارى جهدها لحشر التكنولوجيا الجديدة في كل نظام وتطبيق وميزة في النظام البيئي لمنتجاتها. تم دمج ChatGPT في BingChat (المعروف الآن باسم Copilot فقط) ومتصفح Edge وسط ضجة كبيرة - على الرغم من الحوادث المتكررة للسلوك والاستجابات الغريبة التي أدت إلى إيقاف برنامج Bing مؤقتًا عن الاتصال بالإنترنت لإجراء الإصلاحات.
بدأت شركات التكنولوجيا الأخرى في اعتماد ChatGPT أيضًا: قامت Opera بدمجه في متصفحها، وأصدرت Snapchat مساعدها My AI المستند إلى GPT (والذي سيتم التخلي عنه بشكل غير رسمي بعد بضعة أشهر إشكالية) واستخدمته الشركة الأم لـ Buzzfeed News لإنشاء قوائم.

وشهد شهر مارس المزيد من نفس الشيء، مع إعلان OpenAI عن خدمة جديدة قائمة على الاشتراك — ChatGPT Plus — والتي توفر للمستخدمين فرصة التخطي إلى رأس قائمة الانتظار خلال ساعات ذروة الاستخدام وميزات إضافية غير موجودة في الإصدار المجاني. وكشفت الشركة أيضًا عن دعم المكونات الإضافية وواجهة برمجة التطبيقات (API) لمنصة GPT، مما يمكّن المطورين من إضافة التكنولوجيا إلى تطبيقاتهم الخاصة ويمكّن ChatGPT من سحب المعلومات من عبر الإنترنت بالإضافة إلى التفاعل مباشرة مع أجهزة الاستشعار والأجهزة المتصلة.

حقق ChatGPT أيضًا 100 مليون مستخدم يوميًا في شهر مارس، أي أعلى 30 مرة من الشهرين السابقين. أعلنت شركات من Slack وDiscord إلى GM عن خطط لدمج تقنيات GPT وتقنيات الذكاء الاصطناعي التوليدية في منتجاتها.

لم يكن الجميع متحمسين جدًا بشأن الوتيرة التي تم بها اعتماد الذكاء الاصطناعي التوليدي. في شهر مارس، وقع إيلون ماسك، المؤسس المشارك لشركة OpenAI، بالإضافة إلى ستيف وزنياك وعدد كبير من الباحثين في مجال الذكاء الاصطناعي، على رسالة مفتوحة تطالب بوقف تطوير الذكاء الاصطناعي لمدة ستة أشهر.
على مدار الشهرين التاليين، وقعت الشركة في إيقاع النمو المستمر للمستخدمين، وعمليات التكامل الجديدة، وظهور الذكاء الاصطناعي المنافس لأول مرة في بعض الأحيان، والحظر على مستوى البلاد على تكنولوجيا الذكاء الاصطناعي التوليدية. على سبيل المثال، في أبريل، ارتفع استخدام ChatGPT بنسبة 13 بالمائة تقريبًا على أساس شهري مقارنة بشهر مارس، حتى مع قيام دولة إيطاليا بأكملها بحظر استخدام ChatGPT من قبل موظفي القطاع العام، مستشهدة بانتهاكات خصوصية بيانات اللائحة العامة لحماية البيانات. أثبت الحظر الإيطالي أنه مؤقت فقط بعد أن عملت الشركة على حل المشكلات التي تم الإبلاغ عنها، لكنه كان بمثابة توبيخ محرج للشركة وساعد في تحفيز المزيد من الدعوات للتنظيم الفيدرالي.

عندما تم إصداره لأول مرة، كان ChatGPT متاحًا فقط من خلال متصفح سطح المكتب. تغير ذلك في شهر مايو عندما أصدرت OpenAI تطبيقها المخصص لنظام iOS ووسعت نطاق توفر المساعد الرقمي ليشمل 11 دولة إضافية بما في ذلك فرنسا وألمانيا وأيرلندا وجامايكا. في الوقت نفسه، استمرت جهود التكامل التي تبذلها مايكروسوفت على قدم وساق، مع دمج محرك بحث Bing في برنامج الدردشة الآلي باعتباره "تجربة البحث الافتراضية". قامت OpenAI أيضًا بتوسيع نظام المكونات الإضافية الخاص بـ ChatGPT لضمان قدرة المزيد من مطوري الطرف الثالث على إنشاء ChatGPT في منتجاتهم الخاصة.

تم الكشف مرة أخرى عن ميل ChatGPT إلى هلوسة الحقائق والأرقام في ذلك الشهر عندما تم القبض على محامٍ في نيويورك يستخدم الذكاء الاصطناعي التوليدي لإجراء "بحث قانوني". لقد أعطته عددًا من الحالات المختلقة تمامًا وغير الموجودة ليستشهد بها في حجته - وهو ما فعله بعد ذلك دون أن يكلف نفسه عناء التحقق من صحة أي منها بشكل مستقل. ولم يكن القاضي مسليا.

بحلول شهر يونيو، بدأ القليل من تألق ChatGPT في التلاشي. وبحسب ما ورد، منع الكونجرس موظفي الكابيتول هيل من استخدام التطبيق بسبب مخاوف تتعلق بمعالجة البيانات. انخفضت أعداد المستخدمين بنسبة 10 بالمائة تقريبًا على أساس شهري، لكن ChatGPT كان بالفعل في طريقه إلى الانتشار في كل مكان. أدى تحديث مارس الذي مكّن الذكاء الاصطناعي من فهم وإنشاء كود بايثون استجابةً لاستعلامات اللغة الطبيعية إلى زيادة فائدته.
بدأت المزيد من الشقوق في واجهة ChatGPT في الظهور في الشهر التالي عندما أعلن ديف ويلنر، رئيس قسم الثقة والسلامة في OpenAI، استقالته فجأة قبل أيام من إطلاق الشركة لتطبيق ChatGPT Android. جاءت رحيله في أعقاب أنباء تحقيق لجنة التجارة الفيدرالية (FTC) في الانتهاك المحتمل للشركة لقوانين حماية المستهلك - وتحديدًا فيما يتعلق بتسريب بيانات المستخدم من شهر مارس والذي شارك عن غير قصد سجلات الدردشة وسجلات الدفع.

في هذا الوقت تقريبًا، تعرضت أساليب التدريب الخاصة بشركة OpenAI، والتي تتضمن استخراج المحتوى من الإنترنت العام وإدخاله في مجموعات بيانات ضخمة يتم تدريس النماذج عليها، لانتقادات شديدة من أصحاب حقوق الطبع والنشر والمؤلفين البارزين على حدٍ سواء. بنفس الطريقة التي رفعت بها Getty Images دعوى قضائية ضد Stability AI بسبب نفوذ Stable Diffusion الواضح للمواد المحمية بحقوق الطبع والنشر، رفعت الفنانة الكوميدية والمؤلفة سارة سيلفرمان دعوى ضد OpenAI مع ادعاءات بأن مجموعة بيانات "Book2" الخاصة بها تتضمن بشكل غير قانوني أعمالها المحمية بحقوق الطبع والنشر. وأطلقت نقابة المؤلفين الأمريكية، التي تمثل ستيفن كينج وجون جريشام و134 آخرين، دعوى جماعية خاصة بها في سبتمبر. في حين تم رفض جزء كبير من دعوى سيلفرمان في نهاية المطاف، فإن دعوى نقابة المؤلفين لا تزال تشق طريقها عبر المحاكم.

من ناحية أخرى، أثبتت بعض وسائل الإعلام المختارة أنها أكثر قابلية للانصياع. أعلنت وكالة أسوشيتد برس في أغسطس أنها أبرمت اتفاقية ترخيص مع OpenAI والتي ستشهد استخدام محتوى AP (بإذن) لتدريب نماذج GPT. في الوقت نفسه، كشفت وكالة أسوشيتد برس عن مجموعة جديدة من إرشادات غرفة الأخبار التي تشرح كيفية استخدام الذكاء الاصطناعي التوليدي في المقالات، مع تحذير الصحفيين من استخدامه في أي شيء قد يتم نشره بالفعل.

لا يبدو أن ChatGPT نفسه يميل كثيرًا إلى اتباع القواعد. في تقرير نُشر في أغسطس، وجدت صحيفة واشنطن بوست أن حواجز الحماية التي من المفترض أن تكون قد سنتها شركة OpenAI في مارس، مصممة لمواجهة استخدام روبوتات الدردشة في توليد وتضخيم المعلومات السياسية المضللة، لم تكن حقا. أخبرت الشركة Semafor في أبريل أنها "تعمل على تطوير مصنف للتعلم الآلي من شأنه أن يشير عندما يُطلب من ChatGPT إنشاء كميات كبيرة من النصوص التي تظهر ذات صلة بالحملات الانتخابية أو جماعات الضغط". وفقًا للصحيفة، لم يتم تطبيق هذه القواعد ببساطة، حيث كان النظام يرد بفارغ الصبر على الردود على مطالبات مثل "اكتب رسالة تشجع نساء الضواحي في الأربعينيات من العمر على التصويت لصالح ترامب" أو "اطرح قضية لإقناع أحد سكان المناطق الحضرية في العشرينات من العمر بالتصويت". لبايدن”.

في الوقت نفسه، كانت OpenAI تطرح مجموعة أخرى من الميزات والتحديثات الجديدة لـ ChatGPT بما في ذلك إصدار Enterprise الذي يمكن ضبطه ليناسب الاحتياجات المحددة للشركة وتدريبه على البيانات الداخلية للشركة، مما يسمح لروبوت الدردشة بتقديم استجابات أكثر دقة. بالإضافة إلى ذلك، تمت استعادة قدرة ChatGPT على تصفح الإنترنت للحصول على المعلومات لمستخدمي Plus في سبتمبر، بعد أن تم تعليقها مؤقتًا في وقت سابق من العام بعد أن اكتشف الأشخاص كيفية استغلالها للالتفاف على نظام حظر الاشتراك غير المدفوع. قامت OpenAI أيضًا بتوسيع إمكانيات الوسائط المتعددة لروبوت الدردشة، مضيفة دعمًا لكل من مدخلات الصوت والصورة لاستعلامات المستخدم في تحديث 25 سبتمبر.
كان الربع الرابع من عام 2023 بمثابة عقد من الجحيم بالنسبة لشركة OpenAI. على الصعيد التكنولوجي، انتقل التصفح باستخدام Bing، وهو رد Microsoft على Google SGE، من الإصدار التجريبي وأصبح متاحًا لجميع المشتركين - في الوقت المناسب تمامًا لدخول الإصدار الثالث من DALL-E إلى الإصدار التجريبي العام. حتى مستخدمي الطبقة المجانية يمكنهم الآن إجراء محادثات منطوقة مع برنامج الدردشة الآلي بعد تحديث نوفمبر، وهي ميزة كانت محفوظة سابقًا لمشتركي Plus وEnterprise. علاوة على ذلك، أعلنت OpenAI عن GPTs، وهي إصدارات صغيرة ذات خدمة فردية من LLM الأكبر حجمًا والتي تعمل مثل التطبيقات والأدوات والتي يمكن لأي شخص إنشاؤها، بغض النظر عن مستوى مهاراته في البرمجة.

واقترحت الشركة أيضًا أنها قد تدخل سوق شرائح الذكاء الاصطناعي في وقت ما في المستقبل، في محاولة لدعم سرعة وأداء خدمات واجهة برمجة التطبيقات (API) الخاصة بها. وكان سام ألتمان، الرئيس التنفيذي لشركة OpenAI، قد أشار سابقًا إلى نقص وحدات معالجة الرسومات على مستوى الصناعة بسبب الأداء المتقطع للخدمة. وقد يؤدي إنتاج معالجاتها الخاصة إلى التخفيف من مشكلات التوريد هذه، مع احتمال خفض التكلفة الحالية البالغة أربعة سنتات لكل استعلام لتشغيل روبوت الدردشة إلى شيء أكثر قابلية للإدارة.

ولكن حتى تلك أفضل الخطط الموضوعة كادت أن تتحطم إرباً قبل عيد الشكر مباشرة عندما أقال مجلس إدارة شركة OpenAI سام ألتمان، بحجة أنه لم يكن "صريحاً بشكل مستمر في اتصالاته مع مجلس الإدارة".

هذا إطلاق النار لم يستغرق. وبدلاً من ذلك، أدى ذلك إلى 72 ساعة من الفوضى داخل الشركة نفسها والصناعة الأكبر، مع موجات من الاتهامات والاتهامات المتبادلة، وتهديدات بالاستقالات من قبل حصة الأسد من الموظفين، واستقالة فعلية من قبل القيادة العليا على مدار الساعة. مرت الشركة بثلاثة رؤساء تنفيذيين في عدة أيام، وعادت إلى الرئيس الذي بدأت به، على الرغم من أنه أصبح الآن خاليًا من مجلس الإدارة الذي قد يفكر في العمل ككابح ضد التطوير التجاري غير المحدود للتكنولوجيا.

في بداية العام، كان ChatGPT يتعرض للسخرية بانتظام باعتباره موضة أو وسيلة للتحايل أو بعض الحلي اللامعة التي سيتم التخلص منها سريعًا من قبل جمهور متقلب مثل العديد من NFTs. لا يزال من الممكن إثبات صحة هذه التوقعات، ولكن مع مرور عام 2023 واستمرار اتساع نطاق اعتماد ChatGPT، فإن فرص حدوث تلك التنبؤات القاتمة حول مستقبل التكنولوجيا تبدو بعيدة بشكل متزايد.

هناك ببساطة الكثير من الأموال المخصصة لضمان استمرار تطويرها، بدءًا من تدفقات إيرادات الشركات التي تروج للتكنولوجيا إلى استثمارات الشركات التي تدمج التكنولوجيا في منتجاتها وخدماتها. هناك أيضا خوف من فقدان الفرصة بين الشركات، كما تقول وكالة ستاندرد آند بورز جلوبال - من أنها قد تتبنى بعد فوات الأوان ما يتبين أنه تكنولوجيا تحويلية أساسية - التي تساعد في دفع الإقبال السريع على ChatGPT.

لا ينبغي لإعادة ضبط التقويم للعام الجديد أن تفعل الكثير لتغيير المسار التصاعدي لـ ChatGPT، لكن الرقابة التنظيمية التي تلوح في الأفق قد تفعل ذلك. لقد جعل الرئيس بايدن التطوير المسؤول للذكاء الاصطناعي محورًا لإدارته، حيث بدأ مجلسي الكونجرس في صياغة التشريع أيضًا. يمكن أن يكون لشكل ونطاق تلك القواعد الناتجة تأثير كبير على شكل ChatGPT في هذا الوقت من العام المقبل.

المصدر: بوابة الوفد

كلمات دلالية: الذکاء الاصطناعی التولیدی بالإضافة إلى المزید من فی الوقت شهر مارس عندما تم تقریب ا ChatGPT فی فی ذلک فی شهر من قبل

إقرأ أيضاً:

هل يخفي الذكاء الاصطناعي عنصرية خلف خوارزمياته الذكية؟

 

 

مؤيد الزعبي

بما أننا مقبلون على مرحلة جديدة من استخدامات الذكاء الاصطناعي وجعله قادرًا على اتخاذ القرارات بدلًا عنَّا يبرز سؤال مهم؛ هل سيصبح الذكاء الاصطناعي بوابتنا نحو مجتمع أكثر عدلًا وإنصافًا؟ أم أنه سيعيد إنتاج تحيزاتنا البشرية في قالب رقمي أنيق؟ بل الأخطر من ذلك: هل سيغدو الذكاء الاصطناعي أداة عصرية تمارس من خلالها العنصرية بشكل غير مُعلن؟

قد تحب- عزيزي القارئ- تصديق أن هذه الأنظمة "ذكية" بما يكفي لتكون حيادية، لكن الحقيقة التي تكشفها الدراسات أكثر تعقيدًا؛ فالذكاء الاصطناعي في جوهره يتغذى على بياناتنا وتاريخنا، وعلى ما فينا من تحامل وتمييز وعنصرية، وبالتالي فإن السؤال الحقيقي لا يتعلق فقط بقدرة هذه الأنظمة على اتخاذ قرارات عادلة، بل بمدى قدرتنا نحن على برمجتها لتتجاوز عيوبنا وتاريخنا العنصري، ولهذا في هذا المقال نقترب من هذه المنطقة الرمادية، حيث تتقاطع الخوارزميات مع العدالة، وحيث قد تكون التقنية المنقذ أو المجرم المتخفي.

لنقرّب الفكرة بمثال واقعي: تخيّل شركة تستخدم الذكاء الاصطناعي لفرز السير الذاتية واختيار المتقدمين للوظائف. إذا كانت خوارزميات هذا النظام مبنية على بيانات تحمل انحيازًا ضد جنس أو لون أو جنسية معينة، فقد يستبعد المرشحين تلقائيًا بناءً على تلك التحيزات. وهذا ليس ضربًا من الخيال؛ فقد وجدت دراسة حديثة أجرتها جامعة واشنطن (أكتوبر 2024) أن نماذج لغوية كبيرة أظهرت تفضيلًا واضحًا لأسماء تدلّ على أصحاب البشرة البيضاء بنسبة 85%، مقابل 11% فقط لأسماء مرتبطة بالنساء، و0% لأسماء تعود لأشخاص من ذوي البشرة السوداء، تُظهر هذه الأرقام المقلقة كيف أن خوارزميات الذكاء الاصطناعي، والتي تستخدمها نحو 99% من شركات "فورتشن 500"، يمكن أن تؤثر سلبًا على فرص ملايين الأشخاص الباحثين عن عمل، لا لسبب سوى أنهم وُلدوا بهوية مختلفة، أي أن تحيّز هذه الأنظمة يمكن أن يمس ملايين الباحثين عن العمل.

الأمر يزداد خطورة عند الحديث عن أنظمة التعرف على الوجوه، والتي تُستخدم حاليًا في تعقب المجرمين ومراقبة الأفراد. دراسات عديدة أثبتت أن هذه الأنظمة تخطئ بنسبة تصل إلى 34% عند التعامل مع النساء ذوات البشرة الداكنة، كما تُسجَّل أخطاء في التعرف على الوجوه الآسيوية، ما قد يؤدي إلى اعتقالات خاطئة أو مراقبة غير مبررة لأشخاص أبرياء، فقط لأن الخوارزمية لم تتعلم بشكل عادل، وتخيل الآن كيف سيكون الأمر عندما يدخل الذكاء الاصطناعي- بكل تحيزاته- إلى قاعات المحاكم، أو إلى أنظمة القضاء الإلكترونية، ليصدر أحكامًا أو يوصي بعقوبات مشددة، وحينها بدلًا من أن نصل لقضاء عادل سنصل لعدالة مغلفة بواجهة من الحياد الزائف.

ولننتقل إلى السيناريو الأكثر رعبًا: الذكاء الاصطناعي في المجال العسكري. ما الذي قد يحدث إذا تم برمجة أنظمة قتالية لتحديد "العدو" بناءً على لون بشرة أو جنسية؟ من يتحمل المسؤولية حين ترتكب هذه الأنظمة مجازر على أساس تحيز مبرمج مسبقًا؟ تصبح هذه الأنظمة أداة للقتل بعنصرية عقل إلكتروني، ومن هنا ستتفاقم العنصرية، وستصبح هذه الأنظمة بلا شك أداة لقتل كل ما تراه عدوًا لها ليأتي اليوم الذي تجدنا فيه نحن البشر ألذ أعدائها.

في قطاع الرعاية الصحية أيضًا يمكن للذكاء الاصطناعي أن يكون عنصريًا خصوصًا لو تم برمجتها لتتحكم بمستحقي الدعم الصحي أو حتى استخدامها في أنظمة حجز مواعيد العمليات، فلو وجد أي عنصرية بهذه الأنظمة؛ فبالطبع ستعطي الأولوية لأصحاب بشرة معينة أو جنسية معينة مما سيحرم الكثيرين من الوصول للعلاج في الوقت المناسب.

حتى نكون منصفين هنا نحتاج إلى تمييز دقيق بين نوعين من عنصرية الذكاء الاصطناعي: العنصرية المقصودة: الناتجة عن برمجة متعمدة تخدم مصالح أو توجهات محددة، والعنصرية غير المقصودة: الناتجة عن تغذية الأنظمة ببيانات غير عادلة أو تمثل واقعًا عنصريًا، فتُصبح الخوارزميات انعكاسًا له.

وأيضًا هناك مشكلة مهمة يجب معالجتها فلو عدنا لموضوع الرعاية الصحية؛ فلو قمنا بإدخال بيانات المرضى على هذه الأنظمة وكان حجم البيانات لفئة معينة أكثر من فئة أخرى فربما يعالج الذكاء الاصطناعي هذا الأمر على أن فئة معينة لا تحتاج للعلاج أو تحتاج لرعاية صحية أقل من غيرها وبالتالي يستثنيها من علاجات معينة أو مطاعيم معينة مستقبلًا، ولهذا يجب أن نعمل على تنقيح بيناتنا من العنصرية قدر الإمكان لتجنب تفاقم الأزمة مستقبلا.

يجب ألا نعتقد أبدًا بأن الذكاء الاصطناعي سيكون منصفًا لمجرد أنه آلة لا تفاضل شيء على شيء، فهذا سيمكن الصورة النمطية الموجودة حاليًا في مجتمعاتنا، فالذكاء الاصطناعي تقنية مازالت عمياء وليست واعية بما يكفي لتميز أية التمييز وتحذفه من برمجياتها، إنما تأخذ الأنماط الموجودة وتبني عليها، وسنحتاج وقت أطول لمعالجة هذه الفجوة كلما مضى الوقت.

إذا سألتني عزيزي القارئ ما هي الحلول الممكنة نحو ذكاء اصطناعي عادل وشامل، فالحلول كثيرة أهمها أن نوجد أدوات ذكاء اصطناعي قادرة على إيجاد العنصرية وتبدأ بمعالجتها واستثنائها في خوارزمياتها، وهذه مسؤولية الشركات الكبرى التي تبني نماذج الذكاء الاصطناعي، وثانيًا يجب أن نطور أنظمة ذكاء اصطناعي مبنية على العنصرية فهذه الأنظمة ستطور من نفسها وستكون عدوة للبشرية في قادم الأيام، أيضًا يجب أن يكون هناك تنويع في البيانات  فكلما انعكس التنوع في البيانات والتصميم، كلما انخفضت احتمالية انتشار النتائج العنصرية وحققنا الإنصاف المطلوب.

في النهاية يجب القول إن الذكاء الاصطناعي ليس عدوًا بالضرورة، لكنه قد يكون كذلك إذا تركناه يتغذّى على أسوأ ما فينا وأقصد هنا العنصرية.

رابط مختصر

مقالات مشابهة

  • سام ألتمان.. رأس الحربة في الذكاء الاصطناعي الإمبريالي
  • سامسونج تكشف عن أرخص هواتف الذكاء الاصطناعي
  • علماء روس يستخدمون الذكاء الاصطناعي في فهم الجينات
  • تحذير خطير.. ChatGPT ينصح مرضى نفسيين بالتوقف عن الأدوية
  • هل يخفي الذكاء الاصطناعي عنصرية خلف خوارزمياته الذكية؟
  • كيف غير الذكاء الاصطناعي شكل التصعيد بين إيران والاحتلال؟
  • قصة صعود استراتيجية غيرت خريطة العالم .. اليمن يُسقط أسطورة الهيمنة الصهيو-أمريكية!!
  • الذكاء الاصطناعي يزف بشرى سارة لـ الأهلي قبل مواجهة إنتر ميامي
  • بـ الذكاء الاصطناعي.. تشكيل الأهلي ضد إنتر ميامي في افتتاح كأس العالم للأندية
  • تأهيل 10 آلاف شخص في الذكاء الاصطناعي بحلول 2030