أصبح استخدام أدوات الذكاء الاصطناعي مثل شات جي بي تي (ChatGPT) من شركة "أوبن إيه آي" (OpenAI) وكوبايلوت (Copilot) من مايكروسوفت (Microsoft) جزءا من الحياة اليومية في الأعمال.

وتسارُع تطور أدوات الذكاء الاصطناعي يثير مخاوف من أن هذه التكنولوجيا قد تفتح الباب أمام قضايا متعددة تتعلق بالخصوصية والأمان، خاصة في أماكن العمل.

في المقابل، مع شعور قادة الأعمال بالضغط المتزايد لتنفيذ الذكاء الاصطناعي، فإن إنشاء الثقة وفهم كيفية تأثير الذكاء الاصطناعي على سير العمل مع الموظفين أمر بالغ الأهمية للاستفادة من إمكاناته الكاملة في الشركة.

خصوصية الموظفين في قبضة الذكاء الاصطناعي

في مايو/أيار الماضي، أطلق ناشطون -يتبنون حماية الخصوصية- على أداة "ريكول" (Recall) الجديدة من مايكروسوفت لقب "كابوس الخصوصية"، بسبب قدرتها على أخذ لقطات شاشة للحاسوب كل بضع ثوان. وقد لفتت هذه الميزة انتباه هيئة تنظيم المعلومات في المملكة المتحدة، التي تطالب شركة مايكروسوفت بالكشف عن المزيد بشأن أمان المنتج الذي سيتم إطلاقه قريبا في "كوبايلوت بلس" (+Copilot).

وعلى صعيد مواز، تزداد المخاوف من "شات جي بي تي"، الذي أظهر قدرات أخذ لقطات الشاشة في تطبيقه الجديد الذي سيتم إطلاقه على نظام "ماك أو إس" (macOS)، الذي يقول خبراء الخصوصية إنه قد يؤدي إلى التقاط بيانات حساسة.

ومن هذا المنطلق، قام مجلس النواب الأميركي بحظر استخدام كوبايلوت بين الموظفين، بعد أن عدّه مكتب الأمن السيبراني خطرا على المستخدمين بسبب "تهديد تسريب بيانات مجلس النواب إلى خدمات سحابية غير معتمدة من المجلس".

المخاوف تتمحور حول أدوات الذكاء الاصطناعي التي قد تُستخدم لمراقبة الموظفين (شترستوك)

وفي الوقت نفسه، حذرت شركة تحليل السوق غارتنر من أن استخدام كوبايلوت في "مايكروسوفت أوفيس 365" يكشف عن المخاطر المتعلقة بتسريب البيانات والمحتوى الحساس داخليا وخارجيا. والشهر الماضي، اضطرت غوغل إلى إجراء تعديلات على ميزتها الجديدة في البحث "إيه آي أوفرفيوز" (AI Overviews)، بعد انتشار لقطات شاشة لإجابات مريبة ومضللة على الاستفسارات.

وبالنسبة لأولئك الذين يستخدمون الذكاء الاصطناعي التوليدي في العمل، فإن أحد أكبر التحديات هو خطر تعريض البيانات الحساسة للكشف عن غير قصد.

وفي هذا الصدد، يقول كامدن وولفن، رئيس مجموعة الذكاء الاصطناعي في شركة "جي آر سي إنترناشونال غروب" لإدارة المخاطر، إن معظم أنظمة الذكاء الاصطناعي التوليدي هي في الأساس "إسفنجات كبيرة"، تمتص كميات هائلة من المعلومات من الإنترنت لتدريب نماذج اللغة الخاصة بها.

تتمحور المخاوف حول أدوات الذكاء الاصطناعي التي قد تُستخدم لمراقبة الموظفين، مما قد ينتهك خصوصيتهم. وتُشير ميزة ريكول من مايكروسوفت إلى أن "لقطاتك الخاصة تبقى محصورة في حاسوبك" و"أنت دائما تتحكم في الخصوصية التي يمكنك الوثوق بها".

ومع ذلك، يقول ستيف إلكوك، الرئيس التنفيذي والمؤسس لشركة إليمنت سويت للبرمجيات، "لا يبدو أن هناك وقتا طويلا قبل أن نتمكن من استخدام هذه التكنولوجيا لمراقبة الموظفين".

الثقة هي أساس أماكن العمل الحديثة

من جهته، يشدد مايكل بوش، الرئيس التنفيذي لشركة "غريت بليس تو وورك" وهي هيئة عالمية مختصة بثقافة العمل، على الدور المحوري الذي يلعبه الذكاء الاصطناعي في ربط الموظفين والمنظمات معا. ويقول إن الثقة أكبر من كونها مفهوما مجردا، فهي ضرورية لبيئة يشعر فيها الجميع بالتقدير والاستماع.

ويضيف بوش: "إذا كان بإمكاني خلق خلفية للعالم في الوقت الحالي، سأكتب كلمة الثقة بأكبر حجم ممكن. هذا هو محور النقاش حول الذكاء الاصطناعي وديناميكيات مكان العمل. يجب على الموظفين أن يفهموا كيف يؤثر الذكاء الاصطناعي على سير عملهم ليتمكنوا من تبني إمكانياته بالكامل، ويجب أن تمتد ثقافة الثقة هذه إلى بناء الموثوقية في أنظمة الذكاء الاصطناعي".

وحسب المصدر، عندما يثق الموظفون في النية الكامنة وراء الذكاء الاصطناعي، فإنهم يكونون أكثر احتمالا لتبنيه والتعاون معه. يمكن أن تجعل التغييرات الناس يخافون من المجهول، لكنهم لن يهلعوا بشأن أمان وظائفهم وأمنهم المالي إذا كانت قاعدة الثقة موجودة بالفعل. وبدلا من ذلك، سيرغبون في معرفة المزيد.

تدابير أمان البيانات تعتبر من الاعتبارات الأساسية عند تنفيذ الذكاء الاصطناعي في مكان العمل (شترستوك) اعتبارات هامة للحفاظ على خصوصية الموظفين

رغم أن تقنيات الذكاء الاصطناعي أصبحت شائعة في أماكن العمل، فإنها تثير مخاوف تتعلق بالخصوصية عند مشاركة معلومات حساسة. ومن المهم حماية هذه المعلومات، لأن هذه الأنظمة تتعلم من البيانات التي تتلقاها. وهنا سنذكر أهم اعتبارات رئيسية يجب على أصحاب العمل مراعاتها لتحقيق التوازن بين الذكاء الاصطناعي وخصوصية الموظفين:

تدابير أمن البيانات

تعتبر تدابير أمان البيانات من الاعتبارات الأساسية عند تنفيذ الذكاء الاصطناعي في مكان العمل، إذ تجب حماية معلومات الموظفين وخاصة البيانات الحساسة. كما ينبغي لأصحاب العمل التأكد من أن أنظمة الذكاء الاصطناعي تحتوي على تدابير أمان قوية، ويتضمن ذلك تشفير البيانات وضوابط الوصول والتدقيقات الأمنية الدورية.

الشفافية

تعتبر الشفافية أساسية في معالجة مخاوف الموظفين المتعلقة بتكنولوجيا الذكاء الاصطناعي، فيجب على أصحاب العمل أن يكونوا منفتحين وشفافين بشأن كيفية استخدام الذكاء الاصطناعي داخل المنظمة وما البيانات التي يتم جمعها وتخزينها. ومن شأن التواصل الشفاف أن يبني الثقة ويساعد الموظفين على فهم هدف استخدام الذكاء الاصطناعي، مما يقلل من مخاوف الخصوصية.

الحد من البيانات

لتقليل مخاطر الخصوصية، يجب على أصحاب العمل اتباع مبدأ الحد من جمع البيانات وجمع فقط البيانات الضرورية لمهام ووظائف الذكاء الاصطناعي. وتجنب جمع معلومات كثيرة لا تتعلق بشكل مباشر بغرض الذكاء الاصطناعي.

إن جمع البيانات غير الضرورية يفرض مخاطر الخصوصية ويزيد من تعقيد إدارة البيانات. ويمكن لأصحاب العمل الحد من نقاط الضعف المحتملة للخصوصية من خلال الحد من جمع البيانات إلى ما هو مطلوب بدقة.

التعريف المستعار أو تشفير هوية البيانات يعني استبدال المعلومات الشخصية القابلة للتحديد بأسماء مستعارة (شترستوك) التدريب والإرشادات

لضمان تفاعل الموظفين مع أنظمة الذكاء الاصطناعي بأمان ومسؤولية، يجب على أصحاب العمل توفير التدريب الكافي ووضع إرشادات واضحة لاستخدام منصات الذكاء الاصطناعي. ويشمل ذلك تثقيف الموظفين حول أفضل الممارسات لإدخال البيانات والتفاعل معها.

إخفاء هوية البيانات

يمكن أن يضيف إخفاء هوية بيانات الموظفين طبقة إضافية من حماية الخصوصية. ويتضمن إخفاء الهوية إزالة المعلومات الشخصية القابلة للتحديد من مجموعات البيانات التي يستخدمها الذكاء الاصطناعي، مما يجعل من المستحيل تحديد هوية الموظفين الأفراد.

التعريف المستعار

التعريف المستعار أو تشفير هوية البيانات يعني استبدال المعلومات الشخصية القابلة للتحديد بأسماء مستعارة، مما يضمن بقاء البيانات مفيدة للذكاء الاصطناعي من دون تحديد هوية الأفراد بشكل مباشر. يمكن أن تساعد هذه التقنيات في تحقيق التوازن بين فائدة البيانات للذكاء الاصطناعي وحماية الخصوصية.

تقييمات تأثير الخصوصية المنتظمة

يجب على أصحاب العمل إجراء تقييمات منتظمة لتأثير الخصوصية لتقييم تأثير الذكاء الاصطناعي على خصوصية الموظفين. وتتضمن تقييمات تأثير الخصوصية تحديد وتقييم المخاطر المحتملة المرتبطة بأنظمة الذكاء الاصطناعي وأنشطة معالجة البيانات الخاصة بها.

المصدر: الجزيرة

كلمات دلالية: حراك الجامعات حريات أدوات الذکاء الاصطناعی أنظمة الذکاء الاصطناعی الذکاء الاصطناعی فی الحد من

إقرأ أيضاً:

مستقبل مراكز مصادر التعلّم في ظل الذكاء الاصطناعي

 

 

خميس بن سعيد بن سالم الحربي

k.s.s.alharbi@moe.om

 

في إحدى المرات استوقفتني عبارة وردت في كتاب يتحدَّث عن مكتبات المُستقبل "انظر جيدًا قبل عبور الشارع ثم انطلق"، ورغم بساطتها، إلّا أنني أراها تجسد جوهر المرحلة التي نعيشها اليوم في مراكز مصادر التعلّم؛ فقبل أن نعبر نحو المُستقبل، علينا أن نتأمل واقعنا بصدق، ثم نخطط بحكمة، لننطلق بثقة في عالم يتغير بسرعة غير مسبوقة في ظل ثورة الذكاء الاصطناعي.

لقد شهد العالم تحولات جذرية في مفهوم المكتبات ومراكز مصادر التعلّم؛ فلم تعد هذه المراكز مجرد أماكن لتخزين الكتب، بل أصبحت فضاءات معرفية رقمية، ومنصات للتعلم الذاتي، والتفكير النقدي، والإبداع، وبناء مهارات المستقبل، ومع ظهور أدوات الذكاء الاصطناعي مثل ChatGPT وغيرها، أصبح الوصول إلى المعلومة أسرع من أي وقت مضى؛ مما يفرض على هذه المراكز إعادة ابتكار دورها، بدلًا من التمسك بنموذجها التقليدي، كما يخشى البعض أن تصبح مراكز مصادر التعلّم كيانًا قديمًا مع تراجع استخدام المصادر الورقية وازدياد الاعتماد على المصادر الرقمية، وهذا الخوف وإن كان مشروعًا قد يدفع صناع القرار إلى التقليل من أهمية هذه المراكز، مما قد يؤدي إلى تراجع مستوى الدعم، وضعف توفير الكوادر المتخصصة، وتقليص الاستثمارات في تطويرها ومع ذلك، فإنَّ الخطر الحقيقي لا يكمن في التكنولوجيا ذاتها، بل في الجمود وعدم القدرة على التكيف معها.

من وجهة نظري.. فإنَّ المستقبل لن يُطيح بمراكز مصادر التعلم؛ بل سيُعيد تشكيلها، فلن يبقى أخصائي مصادر التعلم مجرد مسؤول عن الكتب والأجهزة؛ بل سيصبح واضعًا لسياسات استخدام أدوات الذكاء الاصطناعي، وحارسًا لأخلاقيات المعلومات، ومحفزًا على الابتكار، وموجهًا للطلبة في مواجهة الانتحال والابتزاز الإلكتروني، وشريكًا في بناء عقلية رقمية ناقدة وواعية.

كما إنَّ الدور القادم لأخصائي مصادر التعلم هو دور قيادي، وتربوي، وثقافي، وليس تقنيًا فحسب؛ فالمعرفة اليوم متاحة للجميع، لكن القدرة على التمييز بين الموثوق والمضلل، وبين الإبداع والنسخ، وبين التفاعل والتشتت، هي المهارة الحقيقية التي ينبغي أن نغرسها في الأجيال.

تُظهر العديد من الدراسات أنَّ وجود برامج مكتبية قوية تدار من قبل أمناء مؤهلين يسهم في رفع معدلات القراءة والكتابة والنجاح الأكاديمي وفي المقابل، تكشف بيانات عامي 2021-2022 في الولايات المتحدة أن 35% من المناطق التعليمية لا يوجد فيها أمين مكتبة مدرسي، وأن 35% أخرى تعتمد على أمين بدوام جزئي فقط، مما يؤثر سلبًا على أكثر من 12 مليون طالب، حيث إن هذه الأرقام ليست مجرد إحصاءات، بل هي رسالة تحذيرية واضحة حين نتجاهل مراكز مصادر التعلم، فإننا ندفع الثمن تربويًا وثقافيًا.

الحقيقة أننا أمام مفترق طرق: إما أن نعيد تشكيل مراكز مصادر التعلم لتصبح بيئات رقمية مبتكرة تقود التغيير، وإما أن نتركها تتراجع حتى تتحول إلى مساحة مهجورة لا قيمة لها في العملية التعليمية ولا يتفاعل معها أحد، كما إن الذكاء الاصطناعي ليس تهديدًا؛ بل فرصة لبناء جيل باحث، ناقد، مبدع، يمتلك أخلاقيات رقمية، ويستخدم التقنية بوعي ومسؤولية.

** مشرف مصادر التعلم بالتربية والتعليم

 

مقالات مشابهة

  • العلماء يفقدون الثقة بالذكاء الاصطناعي رغم تزايد استخدامه
  • مستقبل مراكز مصادر التعلّم في ظل الذكاء الاصطناعي
  • الذكاء الاصطناعي.. من الإبداع إلى الخداع
  • مجمع الذكاء الاصطناعي الإماراتي الأمريكي يبدأ العمل العام المقبل
  • حكومة الإمارات تطلق آلية لمعالجة البيانات محلياً لتعزيز الثقة والأمان
  • بين الحقيقة والتحيز.. كيف أحدث الذكاء الاصطناعي ثورة في صناعة الأخبار؟
  • «هاكاثون» لتطوير الذكاء الاصطناعي في طب العيون
  • وزير الاتصالات: الذكاء الاصطناعي أداة للتعليم والمعلم يظل البوصلة التي توجه المستقبل
  • تعزيز مهارات موظفي البريمي في استخدام الذكاء الاصطناعي لزيادة إنتاجية العمل
  • دراسة: معظم الناس يواجهون صعوبة في التفريق بين الأصوات البشرية وتلك التي يولدها الذكاء الاصطناعي