مع التقدم الكبير في تقنيات الذكاء الاصطناعي؛ أصبحت عملية جمع وتحليل البيانات من المستخدمين جزء لا يتجزأ من العديد من المجالات التكنولوجية والتجارية، مما يمكن الذكاء الاصطناعي من ابتكار حلول متقدمة جراء تحليل مجموعة ضخمة من البيانات، واكتشاف الأنماط السلوكية التي قد يصعب على البشر ملاحظتها.

ولكن، في الوقت نفسه، تثير هذه التقنيات، العديد من التساؤلات حول الخصوصية والأمن السيبراني.

تطبيقات تجسس على هاتفك .. خبير يوضح كيفية كشفها وحماية بياناتككيف يتم جمع البيانات دون علم المستخدمين؟

قال الدكتور محمد محسن رمضان، مستشار الأمن السيبراني ورئيس وحدة دراسات الذكاء الاصطناعي بمركز العرب للأبحاث والدراسات، في تصريحاته لموقع "صدى البلد": إن الشركات المطورة لتقنيات الذكاء الاصطناعي تقوم بجمع البيانات من مصادر مختلفة مثل منصات التواصل الاجتماعي، التطبيقات، المواقع الإلكترونية، وحتى الأجهزة الذكية.

وأضاف أن هذه الممارسة تتم عبر أساليب غير مباشرة مثل تتبع سلوك المستخدم، وتحليل تفاعلاته مع الأنظمة المختلفة، ومن أبرز الأدوات المستخدمة في هذا السياق هي تقنيات "التعلم الآلي" و"التعلم العميق"، التي تقوم بتجميع وتحليل كميات ضخمة من البيانات بكفاءة عالية في وقت قياسي، باستخدام خوارزميات متطورة لاستخراج الأنماط والاتجاهات المستقبلية، ومع ذلك، غالبا ما يظل المستخدمون غير مدركين لكيفية جمع بياناتهم أو ما إذا كانت قد تم جمعها بالفعل.

الدكتور محمد محسن رمضانالذكاء الاصطناعي وتحليل الأنماط والتنبؤات

أوضح خبير الأمن السيبراني، أن الذكاء الاصطناعي يمكنه أيضا استخدام هذه البيانات؛ لاستخراج الأنماط السلوكية والتنبؤ بما قد يفعله المستخدمون في المستقبل.

على سبيل المثال، إذا كان هناك نمط معين في سلوك الشراء أو تفاعل مع المحتوى، يمكن للذكاء الاصطناعي تحديدهذا النمط وتوقع السلوك المستقبلي للمستخدمين. وتعتبر هذه التحليلات أداة قوية تمنح الشركات ميزة تنافسية، حيث يمكن تخصيص العروض والإعلانات بشكل يتماشى مع تفضيلات المستخدمين.

المخاطر المتعلقة بجمع البيانات

أشار الخبير التقني، إلى أنه على الرغم من فوائد الذكاء الاصطناعي؛ إلا أن جمع البيانات بطرق غير مشروعة أو دون إذن قد يؤدي إلى انتهاك خطير لخصوصية مستخدمي تلك التقنيات، كما أن تسريب هذه البيانات أو استغلالها قد تؤدي إلى كشف معلومات حساسة، ما يعرض الأفراد والشركات لخطر جسيم.

وتابع بالقول إن من بين الأمثلة على ذلك، هجمات "التصيد الاحتيالي" أو تسريب البيانات الشخصية الذي قد يؤدي إلى عمليات احتيال أو سرقة هوية، وعلاوة على ذلك، عندما يتم جمع البيانات وتحليلها دون علم المستخدم، قد يتم استغلال هذه البيانات لأغراض تجارية دون موافقة الأفراد، مما يعزز القلق حول حقوق الخصوصية على الإنترنت.

جمع البياناتطرق حماية البيانات والحفاظ على الخصوصية

لحماية البيانات وضمان الخصوصية، يتعين على الشركات تبني سياسات أمنية صارمة تشمل:

1. التشفير: يجب تشفير جميع البيانات الحساسة أثناء جمعها وتخزينها، لضمان حمايتها من أي تسريب أو اختراق.

2. الشفافية والإفصاح: يجب على الشركات أن تكون واضحة بشأن كيفية جمع واستخدام البيانات من خلال سياسات خصوصية شفافة، مع إبلاغ المستخدمين بما يتم جمعه وكيفية استخدامه.

3. التخزين المحلي: يفضل تخزين البيانات على الخوادم المحلية أو الداخلية، بدلا من الاعتماد الكامل على الحوسبة السحابية، لتقليل مخاطر التسريب.

4. الحد من الوصول إلى البيانات: يجب أن يكون الوصول إلى البيانات مقتصرا على الأفراد المعنيين فقط، مع تطبيق ضوابط صارمة على من يمكنه الاطلاع على المعلومات الشخصية.

5. تحديثات الأمان المستمرة: من الضروري إجراء التحديثات الأمنية بشكل دوري لضمان حماية النظام من التهديدات المتزايدة.

المصدر: صدى البلد

كلمات دلالية: الذكاء الاصطناعي الخصوصية الأمن السيبراني جمع البيانات مخاطر الذكاء الاصطناعي المزيد الذکاء الاصطناعی جمع البیانات

إقرأ أيضاً:

“آبل”: الذكاء الاصطناعي يفتقر للتفكير العميق

واشنطن-سانا

أثار بحث حديث لـ شركة “آبل” جدلاً عالمياً، إذ يشير إلى أن نماذج الاستدلال الكبيرة للذكاء الاصطناعي الكبيرة تفتقر للقدرة على التفكير العميق بفعالية، خلافاً لما تروجه الشركات.

وبحسب ما نقل موقع الجزيرة نت عن موقع “ماشابل” الأمريكي، فإن “آبل” طرحت هذا البحث قبل أيام من مؤتمرها السنوي للمطورين، مشيرةً إلى قصور نماذج الاستدلال الكبيرة للذكاء الاصطناعي في حل المشكلات المعقدة.

وأوضح البحث أن نماذج مثل (أوبن إيه آي أو1) و(أو 3) و(ديب سييك آر 1) تُظهر فشلاً كاملاً في معالجة المشكلات المعقدة، ويتفاقم هذا الفشل مع ازدياد التعقيد.

بينما وجد المشككون في قدرات الذكاء الاصطناعي ضالتهم في هذا البحث، يرى خبراء الذكاء الاصطناعي أنه لا يعني بالضرورة أن نماذج التفكير العميق سيئة أو غير فعالة، بل أنها لا تزال أضعف من البشر في التفكير المنطقي حالياً.

ويأتي هذا البحث من الفريق ذاته الذي نشر ورقة بحثية سابقة العام الماضي، أظهرت قصور نماذج الذكاء الاصطناعي اللغوية الكبيرة.

تابعوا أخبار سانا على 

مقالات مشابهة

  • مساعد الذكاء الاصطناعي بواتساب يسرب رقم هاتف أحد المستخدمين
  • “آبل”: الذكاء الاصطناعي يفتقر للتفكير العميق
  • خبير تكنولوجي: وكلاء الذكاء الاصطناعي سيشاركون البشر حياةتهم بحلول 2027
  • خبير تكنولوجي: الذكاء الاصطناعي بدون رقابة قد يتحوّل إلى خطر وجودي للبشرية
  • خبير اقتصادي: كثرة طروحات الشركات بالسوق الموازية يضمن القدرة على إدارة الأرباح
  • أبل تدرس الاستحواذ على Perplexity AI لتعويض تأخرها في سباق الذكاء الاصطناعي
  • الذكاء الاصطناعي في التحكيم الرياضي بين الدقة والتحديات
  • محتوى بلا بشر… الذكاء الاصطناعي يغزو تيك توك والارباح تتضاعف
  • غوغل تطور البحث الصوتي.. تفاعل ذكي مدعوم بـ«الذكاء الاصطناعي»
  • وضع الذكاء الاصطناعي.. رهان غوغل الجديد لمواجهة منافسي البحث