تكنولوجيا، تحذير عاجل لجميع مستخدمي ChatGPT لا تشارك هذه البيانات،مع ازدهار تقنيات الذكاء الاصطناعي التوليدي وظهور برامج مثل ChatGPT nbsp;وغيرها تضع .،عبر صحافة مصر، حيث يهتم الكثير من الناس بمشاهدة ومتابعه الاخبار، وتصدر خبر تحذير عاجل لجميع مستخدمي ChatGPT .. لا تشارك هذه البيانات ، محركات البحث العالمية و نتابع معكم تفاصيل ومعلوماته كما وردت الينا والان إلى التفاصيل.

تحذير عاجل لجميع مستخدمي ChatGPT .. لا تشارك هذه...

مع ازدهار تقنيات الذكاء الاصطناعي التوليدي وظهور برامج مثل ChatGPT وغيرها تضع الحكومات في جميع أنحاء العالم أفضل الممارسات لبرامج الذكاء الاصطناعي التوليدية لحماية خصوصية المستخدم وحماية المحتوى المحمي بحقوق الطبع والنشر، الأمر الذي يعد بمثابة انذرا للمستخدمين بضرورة حماية بياناتهم الشخصية عند استخدام هذه البرامج.  

وبحسب موقع BGR فإنه يجب أن يكون الحفاظ على خصوصية بياناتك بمثابة تذكير صارخ بعدم الإفراط في المشاركة مع أي روبوتات محادثة  أو برامج تعمل بالذكاء الاصطناعي، حيث هناك بعض المعلومات التي يجب عليك الاحتفاظ بها من الذكاء الاصطناعي، ومنها : 

المعلومات الشخصية التي يمكن أن تحدد هويتك

ويجب أن تبذل قصارى جهدك لمنع مشاركة المعلومات الشخصية التي يمكن أن تحدد هويتك ، مثل اسمك بالكامل وعنوانك وتاريخ ميلادك ورقم الضمان الاجتماعي، باستخدام ChatGPT وبرامج الذكاء الاصطناعي الأخرى.  

وكانت شركة OpenAI قد نفذت ميزات الخصوصية بعد شهور من إصدار ChatGPT، وعند التمكين ، يتيح لك هذا الإعداد منع مطالباتك من الوصول إلى ChatGPT، ولكن هذا لا يزال غير كافٍ لضمان بقاء معلوماتك السرية خاصة بمجرد مشاركتها مع البرنامج. 

أسماء المستخدمين وكلمات المرور

أكثر ما يريده المتسللون من خروقات البيانات هو معلومات تسجيل الدخول، ويمكن أن تفتح أسماء المستخدمين وكلمات المرور أبوابًا غير متوقعة ، خاصةً إذا قمت بإعادة استخدام نفس بيانات الاعتماد لتطبيقات وخدمات متعددة، ويجب ألا تشارك معلومات تسجيل الدخول الخاصة بك مع برامج الذكاء الاصطناعي.  

المعلومات والبيانات البنكية 

ولا يوجد سبب لتقديم أي بيانات أو معلومات مصرفية شخصية لـ ChatGPT، حيث لن تحتاج OpenAI أبدًا إلى أرقام بطاقات الائتمان أو تفاصيل الحساب المصرفي، كما يعد هذا نوعًا شديد الحساسية من البيانات يمكن أن يؤدي ذلك إلى سرقة أموالك .

وإذا طلب منك أي تطبيق يدعي أنه متعلق بـ ChatGPT لهاتف أو كمبيوتر أي معلومات مصرفية، فقد يكون هذا بمثابة علامة حمراء على أنك تتعامل مع نسخة مزيفة من برنامج ChatGPT، كما أنه لا ينبغي لك تحت أي ظرف من الظروف تقديم تلك البيانات. 

مشاركة بيانات وأسرار العمل

وفي الأيام الأولى لـ ChatGPT ، قام بعض موظفي شركة سامسونج بتحميل التعليمات البرمجية حيث كانت هذه المعلومات سرية ولكنها وصلت إلى خوادم شركة OpenAI المالكة لـ ChatGPT ، ودفع هذا شركة سامسونج إلى فرض حظر على روبوتات الذكاء الاصطناعي التوليدية.

واتبعت شركات أخرى ، بما في ذلك شركة آبل، حيث يجب الحفاظ على سرية البيانات والمعلومات الخاصة بأسرار عملك. 

مشاركة البيانات الصحية 

وقد ترغب في سؤال برنامج ChatGPT بعض الأسئلة المتعلقة بالأمراض لشخص تظهر عليه أعراض معينة، حيث في هذه الحالة لا يجب الكشف عن البيانات الصحية الدقيقة ويجب إعطاء معلومات عامة، كما يجب ألا تعطي خدمات شبيهة بـ ChatGPT جميع بياناتك الصحية. 

المصدر: صحافة العرب

كلمات دلالية: الذكاء موعد عاجل الدولار الامريكي اليوم اسعار الذهب اسعار النفط مباريات اليوم جدول ترتيب حالة الطقس الذکاء الاصطناعی

إقرأ أيضاً:

هل يخفي الذكاء الاصطناعي عنصرية خلف خوارزمياته الذكية؟

 

 

مؤيد الزعبي

بما أننا مقبلون على مرحلة جديدة من استخدامات الذكاء الاصطناعي وجعله قادرًا على اتخاذ القرارات بدلًا عنَّا يبرز سؤال مهم؛ هل سيصبح الذكاء الاصطناعي بوابتنا نحو مجتمع أكثر عدلًا وإنصافًا؟ أم أنه سيعيد إنتاج تحيزاتنا البشرية في قالب رقمي أنيق؟ بل الأخطر من ذلك: هل سيغدو الذكاء الاصطناعي أداة عصرية تمارس من خلالها العنصرية بشكل غير مُعلن؟

قد تحب- عزيزي القارئ- تصديق أن هذه الأنظمة "ذكية" بما يكفي لتكون حيادية، لكن الحقيقة التي تكشفها الدراسات أكثر تعقيدًا؛ فالذكاء الاصطناعي في جوهره يتغذى على بياناتنا وتاريخنا، وعلى ما فينا من تحامل وتمييز وعنصرية، وبالتالي فإن السؤال الحقيقي لا يتعلق فقط بقدرة هذه الأنظمة على اتخاذ قرارات عادلة، بل بمدى قدرتنا نحن على برمجتها لتتجاوز عيوبنا وتاريخنا العنصري، ولهذا في هذا المقال نقترب من هذه المنطقة الرمادية، حيث تتقاطع الخوارزميات مع العدالة، وحيث قد تكون التقنية المنقذ أو المجرم المتخفي.

لنقرّب الفكرة بمثال واقعي: تخيّل شركة تستخدم الذكاء الاصطناعي لفرز السير الذاتية واختيار المتقدمين للوظائف. إذا كانت خوارزميات هذا النظام مبنية على بيانات تحمل انحيازًا ضد جنس أو لون أو جنسية معينة، فقد يستبعد المرشحين تلقائيًا بناءً على تلك التحيزات. وهذا ليس ضربًا من الخيال؛ فقد وجدت دراسة حديثة أجرتها جامعة واشنطن (أكتوبر 2024) أن نماذج لغوية كبيرة أظهرت تفضيلًا واضحًا لأسماء تدلّ على أصحاب البشرة البيضاء بنسبة 85%، مقابل 11% فقط لأسماء مرتبطة بالنساء، و0% لأسماء تعود لأشخاص من ذوي البشرة السوداء، تُظهر هذه الأرقام المقلقة كيف أن خوارزميات الذكاء الاصطناعي، والتي تستخدمها نحو 99% من شركات "فورتشن 500"، يمكن أن تؤثر سلبًا على فرص ملايين الأشخاص الباحثين عن عمل، لا لسبب سوى أنهم وُلدوا بهوية مختلفة، أي أن تحيّز هذه الأنظمة يمكن أن يمس ملايين الباحثين عن العمل.

الأمر يزداد خطورة عند الحديث عن أنظمة التعرف على الوجوه، والتي تُستخدم حاليًا في تعقب المجرمين ومراقبة الأفراد. دراسات عديدة أثبتت أن هذه الأنظمة تخطئ بنسبة تصل إلى 34% عند التعامل مع النساء ذوات البشرة الداكنة، كما تُسجَّل أخطاء في التعرف على الوجوه الآسيوية، ما قد يؤدي إلى اعتقالات خاطئة أو مراقبة غير مبررة لأشخاص أبرياء، فقط لأن الخوارزمية لم تتعلم بشكل عادل، وتخيل الآن كيف سيكون الأمر عندما يدخل الذكاء الاصطناعي- بكل تحيزاته- إلى قاعات المحاكم، أو إلى أنظمة القضاء الإلكترونية، ليصدر أحكامًا أو يوصي بعقوبات مشددة، وحينها بدلًا من أن نصل لقضاء عادل سنصل لعدالة مغلفة بواجهة من الحياد الزائف.

ولننتقل إلى السيناريو الأكثر رعبًا: الذكاء الاصطناعي في المجال العسكري. ما الذي قد يحدث إذا تم برمجة أنظمة قتالية لتحديد "العدو" بناءً على لون بشرة أو جنسية؟ من يتحمل المسؤولية حين ترتكب هذه الأنظمة مجازر على أساس تحيز مبرمج مسبقًا؟ تصبح هذه الأنظمة أداة للقتل بعنصرية عقل إلكتروني، ومن هنا ستتفاقم العنصرية، وستصبح هذه الأنظمة بلا شك أداة لقتل كل ما تراه عدوًا لها ليأتي اليوم الذي تجدنا فيه نحن البشر ألذ أعدائها.

في قطاع الرعاية الصحية أيضًا يمكن للذكاء الاصطناعي أن يكون عنصريًا خصوصًا لو تم برمجتها لتتحكم بمستحقي الدعم الصحي أو حتى استخدامها في أنظمة حجز مواعيد العمليات، فلو وجد أي عنصرية بهذه الأنظمة؛ فبالطبع ستعطي الأولوية لأصحاب بشرة معينة أو جنسية معينة مما سيحرم الكثيرين من الوصول للعلاج في الوقت المناسب.

حتى نكون منصفين هنا نحتاج إلى تمييز دقيق بين نوعين من عنصرية الذكاء الاصطناعي: العنصرية المقصودة: الناتجة عن برمجة متعمدة تخدم مصالح أو توجهات محددة، والعنصرية غير المقصودة: الناتجة عن تغذية الأنظمة ببيانات غير عادلة أو تمثل واقعًا عنصريًا، فتُصبح الخوارزميات انعكاسًا له.

وأيضًا هناك مشكلة مهمة يجب معالجتها فلو عدنا لموضوع الرعاية الصحية؛ فلو قمنا بإدخال بيانات المرضى على هذه الأنظمة وكان حجم البيانات لفئة معينة أكثر من فئة أخرى فربما يعالج الذكاء الاصطناعي هذا الأمر على أن فئة معينة لا تحتاج للعلاج أو تحتاج لرعاية صحية أقل من غيرها وبالتالي يستثنيها من علاجات معينة أو مطاعيم معينة مستقبلًا، ولهذا يجب أن نعمل على تنقيح بيناتنا من العنصرية قدر الإمكان لتجنب تفاقم الأزمة مستقبلا.

يجب ألا نعتقد أبدًا بأن الذكاء الاصطناعي سيكون منصفًا لمجرد أنه آلة لا تفاضل شيء على شيء، فهذا سيمكن الصورة النمطية الموجودة حاليًا في مجتمعاتنا، فالذكاء الاصطناعي تقنية مازالت عمياء وليست واعية بما يكفي لتميز أية التمييز وتحذفه من برمجياتها، إنما تأخذ الأنماط الموجودة وتبني عليها، وسنحتاج وقت أطول لمعالجة هذه الفجوة كلما مضى الوقت.

إذا سألتني عزيزي القارئ ما هي الحلول الممكنة نحو ذكاء اصطناعي عادل وشامل، فالحلول كثيرة أهمها أن نوجد أدوات ذكاء اصطناعي قادرة على إيجاد العنصرية وتبدأ بمعالجتها واستثنائها في خوارزمياتها، وهذه مسؤولية الشركات الكبرى التي تبني نماذج الذكاء الاصطناعي، وثانيًا يجب أن نطور أنظمة ذكاء اصطناعي مبنية على العنصرية فهذه الأنظمة ستطور من نفسها وستكون عدوة للبشرية في قادم الأيام، أيضًا يجب أن يكون هناك تنويع في البيانات  فكلما انعكس التنوع في البيانات والتصميم، كلما انخفضت احتمالية انتشار النتائج العنصرية وحققنا الإنصاف المطلوب.

في النهاية يجب القول إن الذكاء الاصطناعي ليس عدوًا بالضرورة، لكنه قد يكون كذلك إذا تركناه يتغذّى على أسوأ ما فينا وأقصد هنا العنصرية.

رابط مختصر

مقالات مشابهة

  • شركة تكنولوجية تفضح أزمة التوظيف في عصر الذكاء الاصطناعي
  • هيئة النقل تحصد شهادة الآيزو في مجال نظام إدارة خدمات تكنولوجيا المعلومات
  • سامسونج تكشف عن أرخص هواتف الذكاء الاصطناعي
  • وزير البترول يصدر حركة تكليفات جديدة لدعم التحول الرقمي وتطوير تكنولوجيا المعلومات بالقطاع
  • علماء روس يستخدمون الذكاء الاصطناعي في فهم الجينات
  • تحذير خطير.. ChatGPT ينصح مرضى نفسيين بالتوقف عن الأدوية
  • هل يخفي الذكاء الاصطناعي عنصرية خلف خوارزمياته الذكية؟
  • كيف غير الذكاء الاصطناعي شكل التصعيد بين إيران والاحتلال؟
  • «ميتا» تستثمر 14.3 مليار دولار في شركة الذكاء الاصطناعي «سكيل»
  • تأهيل 10 آلاف شخص في الذكاء الاصطناعي بحلول 2030