المناطق_متابعات

شهدت تطبيقات وخدمات الذكاء الاصطناعي نموًا هائلًا خلال العام الماضي، ويبدو أن هذا النمو سيستمر لمدة طويلة، إذ يُدمج الذكاء الاصطناعي الآن في كل التطبيقات والأدوات التي نستخدمها يوميًا، مثل: البريد الإلكتروني، والتطبيقات المكتبية، وأدوات تحرير الصور، وأنظمة التشغيل مثل: ويندوز، وأندرويد، بالإضافة إلى بيئات التطوير المتكاملة (IDEs) مثل: Visual Studio، وغيرها الكثير.

وينشئ المطورون الآن آلاف التطبيقات الجديدة التي تستفيد من نماذج الذكاء الاصطناعي. ومع ذلك، لم يتمكن أحد في هذا السباق حتى الآن من حل مشكلات الأمان التي يواجهها المستخدمون، ومنها: تسريب البيانات السرية، واختراق الحسابات والأجهزة من خلال أدوات الذكاء الاصطناعي، ناهيك عن وضع ضمانات مناسبة ضد هجمات (الذكاء الاصطناعي الشرير) المستقبلية. لذلك سيتعين عليك اكتساب بعض المهارات لتأمين بياناتك عند استخدام هذه الأدوات، حتى تُحل هذه المشكلات.

أخبار قد تهمك “روشن” توقع اتفاقية تعاون مع “جوجل كلاود” للاستفادة من الذكاء الاصطناعي 4 أبريل 2024 - 3:01 مساءً الذكاء الاصطناعي يبدأ التعرف على المشاعر الإنسانية 24 مارس 2024 - 12:51 مساءً

تُشكل خصوصية البيانات مصدر قلق متزايد مع زيادة شعبية روبوتات الدردشة التي تستند في عملها إلى الذكاء الاصطناعي، خاصة مع استخدام البيانات للتدريب، وحدوث تسريبات غير مقصودة.

إذ تنص سياسة الخصوصية التي تتبعها (OpenAI)، الشركة المطورة لروبوت ChatGPT، إلى أن جميع المحادثات مع روبوت (ChatGPT) تُحفظ وتستخدم لأغراض متعددة، منها: تدريب إصدارات نماذج (GPT) الجديدة لتحسين المنتج، ومنع انتهاكات شروط الخدمة.

كما تمتلك معظم النماذج اللغوية الشائعة الأخرى – بما يشمل: Gemini من جوجل، وClaude من Anthropic وCopilot من مايكروسوفت – سياسات مماثلة، إذ يمكنها جميعها حفظ المحادثات بالكامل.

ومع ذلك، فقد حدثت بالفعل تسريبات غير مقصودة لبيانات المستخدمين بسبب أخطاء برمجية، حيث ظهرت العناوين الخاصة بسجل محادثات المستخدمين مع ChatGPT بشكلٍ عشوائي لدى مُستخدمين آخرين.

ويُمكن أن يشكل استخدام البيانات للتدريب أيضًا خطرًا على الخصوصية، إذ قد يُقدم مساعد الذكاء الاصطناعي معلوماتك إلى شخص ما دون علمك إذا كان يعتقد أنها ذات صلة بالرد. بالإضافة إلى ذلك فقد استغل المهاجمون إصدارت (GPTs) – المتاحة في متجر GPT، التي طُورت لأداء مهام محددة – لشن هجمات متعددة لسرقة المحادثات، مما يُشير إلى أن هذا الخطر لن يزول قريبًا.

لذلك؛ يجب عليك دائمًا تذكر أن محادثاتك مع Gemini و ChatGPT، وأي روبوتات دردشة أخرى قد تكون سببًا في اختراقك، ومن المهم أن تتخذ الخطوات اللازمة لحماية بياناتك عند استخدامها.

ماذا تفعل لحماية بياناتك عند استخدام أدوات الذكاء الاصطناعي؟

1- لا تشارك أي معلومات شخصية مع روبوتات الدردشة:
لا يُعدّ Gemini وChatGPT وأي روبوتات دردشة أخرى قناة آمنة لمشاركة المعلومات الحساسة أو التعامل معها، ويتضمن ذلك: البيانات المالية وكلمات المرور والمعلومات الشخصية وبيانات العمل السرية، لذلك لا تشارك هذه المعلومات معها بأي طريقة، ويمكنك استبدالها بعلامات نجمية في المطالبات.

2- تجنب مشاركة أي وثائق تحتوي على معلومات حساسة أو سرية:
تتيح لك العديد من الأدوات والإضافات استخدام روبوتات الدردشة لمعالجة المستندات بسرعة، مما قد يكون مغريًا لتحميل مستند عمل لمعالجته أو الحصول على ملخصه بسرعة، ومع ذلك، فمن خلال تحميل مستندات متعددة الصفحات لمعالجتها دون تفكير فإنك تخاطر بتسريب البيانات السرية أو الملكية الفكرية أو الأسرار التجارية، مثل: تاريخ إصدار منتج جديد أو كشوف مرتبات الفريق، والأسوأ من ذلك، عند معالجة المستندات الواردة من مصادر خارجية، قد تُستهدف بهجوم يعتمد على المستند الذي تفحصه.

3- استخدم إعدادات الخصوصية:
اقرأ سياسة الخصوصية الخاصة بالنموذج اللغوي الذي تستخدمه بعناية، ثم حدد الإعدادات المتاحة للتحكم في كيفية جمع بياناتك واستخدامها. على سبيل المثال، تسمح لك منتجات OpenAI بتعطيل حفظ المحادثات، وفي هذه الحالة، ستُحدف البيانات بعد 30 يومًا ولن تُستخدم للتدريب.

الحد من مخاطر تطبيقات الأطراف الخارجية والإضافات:

احرص على اتباع النصائح السابقة عند استخدام أي روبوت دردشة يستند في عمله إلى الذكاء الاصطناعي، حتى لو كان مشهورًا، مثل: ChatGPT أو Gemini، ومع ذلك، حتى هذا قد لا يكون كافيًا لضمان الخصوصية، إذ يؤدي استخدام الإضافات مع روبوتات الدردشة إلى ظهور أنواع جديدة من التهديدات الأمنية، ومنها:

قد تُحزن سجلات المحادثات في خوادم تابعة لطرف ثالث يدعم الإضافات التي تستخدمها، وليس فقط في خوادم جوجل أو OpenAI.
تستمد معظم الإضافات المعلومات من مصادر خارجية، مثل: عمليات البحث عبر الويب أو البريد الوارد في جيميل أو الملاحظات الشخصية من خدمات، مثل: Notion أو Jupyter أو Evernote. قد ينتهي الأمر بوصول أي من بياناتك من هذه الخدمات إلى الخوادم التي تعمل عليها الإضافة أو النموذج اللغوي نفسه.
قد تُستخدم إضافات روبوتات الدردشة لشن هجمات على المستخدمين، مثل: إنشاء مستودعات GitHub جديدة نيابة عنهم دون علمهم.
إذا كنت بحاجة إلى بعض المزايا التي توفرها الإضافات، فحاول اتخاذ أقصى الاحتياطات المتاحة قبل استخدامها، ومنها:

اختر الإضافات التي كانت موجودة منذ عدة أشهر على الأقل، والتي تُحدث بانتظام.
فكر فقط في الإضافات التي لديها عدد كبير من التنزيلات، واقرأ المراجعات بعناية للبحث عن أي مشكلات.
إذا كانت الإضافة لديها سياسة خصوصية، اقرأها بعناية قبل البدء باستخدامها.
اختر الأدوات المفتوحة المصدر.

إذا كنت تمتلك مهارات برمجية، فاقرأ التعليمات البرمجية للتأكد من أن الإضافات التي تستخدمها ترسل البيانات فقط إلى الخوادم المعلنة، وإذا لم تمتلك مهارات برمجية، فاطلب من صديق مبرمج مراجعة التعليمات البرمجية نيابة عنك، أو استخدم أداة تحليل إضافات موثوقة للتحقق من سلامة البيانات.

المصدر: صحيفة المناطق السعودية

كلمات دلالية: التكنولوجيا الحديثة الذكاء الاصطناعي روبوتات الدردشة الذکاء الاصطناعی روبوتات الدردشة الإضافات التی عند استخدام ومع ذلک

إقرأ أيضاً:

حوارٌ مثيرٌ مع الذكاء الاصطناعي

كثر الحديث مؤخرًا عن لجوء بعض الكتّاب إلى «الذكاء الاصطناعي»؛ ليكتب عنهم المقالات الصحفيَّة في ثوان قليلة، ما اختصر لهم الوقت، وأراحهم من عناء الجهد والبحث. والنتيجةُ أنّ تلك المقالات افتقدت الروح، وغاب عنها الكاتب، فصارت كلُّ المقالات متشابهة في الشكل والمضمون، لدرجة أن أصبح القارئ يستطيع أن يميّز بين مقال الكاتب والمقال المنقول حرفيًّا من الذكاء.

إزاء تنامي الجدل حول الموضوع؛ هل هو انتحال وسرقة أم أنه بحكم التطور وضع طبيعي؟ قررتُ أن أخوض حوارًا مباشرًا مع أحد هذه الأنظمة؛ بحثًا عن فهم أعمق لهذا الكائن الرقمي. كانت المفاجأة أني كنتُ في حوار أقرب ما يكون مع إنسان وليس مع آلة، وبدا لي أنّ الذكاء الاصطناعي أداة ذات قدرات هائلة تفيد الكاتب في جوانب كثيرة في البحث عن المعلومة والترجمة وفي تقييم المقال نفسه، لكنه مهما كان من أمر فإنه لا يمكن أن يعوّض عن حضور الكاتب. سألتُ الذكاء عن هذا الأمر، فأقرّ بأنّ البعض يستخدمه لأداء المهمة كاملة دون تحرير أو إضافة ذاتية ما يجعل النص أقرب للانتحال، حتى لو لم يكن هناك مؤلف بشري يُنسب له المحتوى. سألتُ: هل يمكن أن يُقدّم الذكاء المقال نفسه لشخص آخر؟ فردّ بأنّ ذلك ممكن، خاصةً إذا كانت الأسئلة متشابهة أو عامة، ما يُظهر أهمية التفرّد في الطرح، والحرص على أن تكون الكتابةُ نابعةً من هوية الكاتب نفسه. هنا سألته: ماذا يمكن أن يفيد الذكاء الكتّاب والصحفيين؟ كان الرد: «دعم الكتابة والتحرير عن طريق صياغة الأفكار، وتوليد المحتوى، واقتراح زوايا مختلفة للموضوع أو حتى تقديم مسودة أولية. ويمكن الذكاء الاصطناعي تحليل كميات ضخمة من المعلومات في وقت قصير، واستخلاص النقاط المهمة». وأهم نقطة ذكرها أنّه بترجمته الفورية السريعة يسهل التواصل مع مصادر من ثقافات مختلفة، ويمكنه استخراج الخلاصة من مقابلات طويلة، أو من وثائق كثيرة.

تشعّب الحديث بيننا - وكأني أمام صديق مثقف - سألتُه: كيف نضمن أن يبقى الذكاء الاصطناعي خادمًا للإنسان لا سيدًا عليه؟ فردّ قائلًا: «إنّ الحفاظ على هذا التوازن يتطلب ترسيخ القيم الإنسانية في تصميم الأنظمة، وسن تشريعات ذكية، وتوعية الناس بعدم الاستسلام المطلق للأداة».

انتقلنا في الحديث عن الكتابة إلى الطب، فسألتُه سؤالًا سبق أن أثار جدلًا واسعًا: هل يمكن للذكاء الاصطناعي أن يُلغي وظيفة الطبيب العام مثل الكثير من الوظائف التي ستُلغى؟ أجاب أنّ دوره سيتغيّر، لكنه لن يُلغى، فبينما يستطيع الذكاء دعم التشخيص، وتحليل البيانات يظل الطبيب البشري يتمتع بقدرة لا يمكن للآلة أن تمتلكها، وهي التعاطف، والحدس، والتعامل مع تعقيدات النفس البشرية.

طرحتُ عليه سؤالًا يحمل بُعدًا أمنيًا وأخلاقيًا، وقد تردّد كثيرًا عبر المنصات: هل يمكن للذكاء الاصطناعي أن يُعلّم الناس صناعة القنابل أو الأسلحة؟ فكان جوابه حازمًا: «الشركات المطوّرة تضع فلاتر صارمة لمنع هذه الاستخدامات، لكن يبقى الخطر قائمًا إذا تم التحايل أو إساءة الاستخدام. وهنا تزداد الحاجة إلى يقظة قانونية ومجتمعية تتجاوز التطوّر التقني نفسه».

أخذني الحماس فسألتُه عن أغرب طلب وُجِّه إليه فقال: «هناك من طلب مني أن أكتب خطابًا يعتذر فيه عن حادثة كسر كوب زجاجي أمام مجلس تنفيذي لشركة كبرى، ويجب أن يتضمن استعارات عن تحطم الأحلام والزجاج المعشق». وواصل: «هناك من يسألني عن أسرار الكون، ومن يطلب صياغة قصيدة غزلية، ومن يبحث عن دعم نفسي في لحظة صعبة، وحتى من يطلب نصيحة قبل أن يُقدِم على مغامرة جديدة. وهناك من يريد أن أفسّر له الأحلام. أشعرُ وكأنّي كتابٌ حيّ مفتوح دومًا مليء بالمفاجآت». ولم ينس أن يسألني: هل لديك سؤالٌ غريب يا زاهر؟!

حقيقة أنّ الذكاء الاصطناعي الآن قوي، ومع الأسف صار الكثيرون يعتمدون عليه في الكتابة الحرفية فقط، وتركوا الإمكانيات الهائلة التي يمكن أن يقدّمها. وفي تصوري أنّ ما ينتظره العالم منه في المستقبل يفوق التصوّر، وهو ما أكده لي عندما سألتُه عمَّا هو متوقع منه في المستقبل؟ فأجاب: «سيصبح الذكاء الاصطناعي مثل «سكرتير رقمي» يعرف جدولك، وشخصيتك، ومزاجك، حتى نواياك، يتوقع احتياجاتك قبل أن تطلبها، ويُقدِّم خيارات حياتية مصممة لك بالذكاء. أما في المجال الطبي فسيتمكن من تحليل الحمض النووي لكلِّ فرد وإعطاء علاج خاص به، وقد يُساعد في اكتشاف الأمراض قبل ظهور أعراضها بسنوات». أما عن مجال التعليم فقد قال: «تخيّل فصلًا دراسيًّا لكلّ طالب على حدة، يُدرّسه الذكاء الاصطناعي حسب سرعة فهمه واهتمامه. سيساعد الذكاء في ردم الفجوة التعليمية بين المناطق المختلفة».

ولكن المثير أنه قال: «ستجري روبوتات عمليات جراحية، وترعى كبار السن، وتُناقشك في الفلسفة، تمزج بين الحس العاطفي والذكاء التحليلي. سيشارك الذكاء الاصطناعي في تأليف الموسيقى، كتابة الروايات، رسم اللوحات، وحتى ابتكار نكات».

لكن هل يمكن للذكاء الاصطناعي أن «يفهم» المشاعر؟ كان الرد: «إنّ الأبحاث تتجه نحو أنظمة تُدرك نبرة الصوت، وتعابير الوجه حتى المزاج!».

الذكاء الاصطناعي يشكّل قفزة كبيرة تُشبه القفزات النوعية في التاريخ، مثل اختراع الطباعة أو الإنترنت. وكلُّ هذا مجرد بداية رغم أنّ الناس باتوا يرونه من الآن مستشارًا، وشريكًا معرفيًّا، ومُحفِّزًا للإبداع، وأحيانًا صديقًا للدردشة.

كشفَتْ لي تجربةُ الحوار المطول، قدرات الذكاء الاصطناعي، وصرتُ على يقين بأنّ محرِّكات البحث مثل «جوجل» قد تصبح من الماضي؛ لأنّ البديل قوي، ويتيح ميزات لا توجد في تلك المحرِّكات، كالنقاش، وعمق البحث عن المعلومة، والترجمة الفورية من أيِّ لغة كانت. وما خرجتُ به من هذا الحوار - رغم انبهاري الشديد - هو أنّ الأداة لا تُغني عن الإلهام، وأنّ الكلمة لا تُولَد من الآلة فقط، بل من الأفكار، ومن التجارب الإنسانية، ومن المواقف، ولكن لا بأس أن تكون التقنية مساعِدة، وليست بديلة، فهي مهما كانت مغوية بالاختصار وتوفير الجهد والوقت؛ فستبقى تُنتج محتوىً بلا روح ولا ذاكرة ولا انفعالات، وهذه كلها من أساسيات نجاح أيِّ كتاب أو مقال أو حتى الخطب. وربما أقرب صورة لتوضيح ذلك خطبة الجمعة - على سبيل المثال -؛ فعندما يكون الخطيب ارتجاليًّا يخطب في الناس بما يؤمن به فسيصل إلى قلوب مستمعيه أكثر من خطبة بليغة مكتوبة يقرأها الخطيب نيابةً عن كاتبها.

وبعد نقاشي المطول معه، واكتشافي لإمكانياته أخشى أن يُضعف هذا (الذكاء) قدرات الإنسان التحليلية والإبداعية في آن واحد؛ بسبب الاعتماد المفرط عليه، خاصة أني سألتُه: هل يمكن لك أن تجهِّز لي كتابًا؟ كان الرد سريعًا: نعم.

في كلِّ الأحوال لا غنى عن الذكاء الاصطناعي الآن، لكلِّ من يبحث عن المعلومة، ويريد أن يقويَّ بها كتبه ومقالاته وأبحاثه. لكن النقطة المهمة هنا هي أنه يجب أن يبقى خادمًا للإنسان لا سيدًا عليه، كأن يتجاوز أدواره - مثلًا -، ويحل محله في أمور تتطلب الحكمة، أو الوجدان، أو الأخلاق. ويجب أن يبقى معاونًا وشريكًا، ولكن ليس بديلًا كاملًا عن الإنسان كما يريده البعض.

مقالات مشابهة

  • هيئة مكافحة الاحتكار الإيطالية تحقق مع ميتا بشأن دمج الذكاء الاصطناعي في واتساب
  • السباق الاستخباراتي على الذكاء الاصطناعي
  • الصين تعزز استخدام الذكاء الاصطناعي في الزراعة الذكية
  • معضلة الذكاء الاصطناعي والمؤلف العلمي
  • استمراراً لسلسلة الدورات المتخصصة في الذكاء الاصطناعي… التنمية الإدارية تواصل تطوير الكوادر الحكومية في تحليل البيانات
  • أخلاقيات الإبداع: مستقبل العلاقة الجدلية بين الذكاء الاصطناعي والملكية الفكرية
  • حوارٌ مثيرٌ مع الذكاء الاصطناعي
  • مؤتمر الذكاء الاصطناعي.. روبوتات شبيهة بالبشر تلعب وترسم وتنجز المهام
  • هل تنفجر معدلات النمو الاقتصادي في زمن الذكاء الاصطناعي؟
  • احذر الحكة بعد الاستحمام.. قد تكون أكثر من مجرد جفاف في الجلد!