أصبحت حوكمة البيانات في مؤسسات القطاع العام ضرورة مُلِحّة في ظل التطور التكنولوجي المتسارع، وخاصة في ظل تزايد الاعتماد على أدوات الذكاء الاصطناعي لتحسين الأداء واتخاذ القرارات، وتعتبر الحوكمة الجيدة للبيانات داعمًا رئيسًا لضمان استدامة وكفاءة استخدام الذكاء الاصطناعي في المؤسسات، وتوفر إطارًا واضحًا لجمع البيانات وتحليلها واستخدامها بشكل مسؤول وفعّال.

وتعرف حوكمة البينات Data Governance وفقًا لمنظمة DAMA International، بأنها الإطار التنظيمي لوضع الاستراتيجية والأهداف والسياسات لإدارة البيانات بشكل فعّال وتتألف من العمليات والسياسات والتنظيم والتقنيات اللازمة لإدارة وضمان توافر البيانات وإمكانية استخدامها وسلامتها واتساقها وقابليتها للتدقيق، كما توفر حوكمة البيانات الإطار الشامل لفرض السياسات وضمان جودة البيانات وتحديد الأدوار والمسؤوليات. وبدون هذه الحوكمة، قد تواجه المؤسسات تحديات عديدة تتعلق بجودة البيانات وسلامتها، ما قد يعرقل تحقيق الأهداف والاستراتيجيات من تبني تقنيات الذكاء الاصطناعي، ويتمثل دور حوكمة البيانات في مؤسسات القطاع العام في توفير البنية الأساسية التنظيمية التي تضمن أن تكون البيانات متاحة وموثوقة وآمنة، فالحوكمة لا تعني فقط تنظيم البيانات، بل تشمل أيضًا ضمان الامتثال للمعايير القانونية والأخلاقية المتعلقة باستخدام البيانات. كما تساعد على تحسين جودة البيانات من خلال إنشاء عمليات موحدة لجمعها ومعالجتها، ما يُسهم في تحسين فعالية وكفاءة أدوات الذكاء الاصطناعي. وتعتبر مؤسسات القطاع العام، الأكثر حاجة إلى حوكمة البيانات نظرًا للكم الهائل من المعلومات التي تتعامل معها يوميًا، حيث تعتمد هذه المؤسسات على البيانات للتخطيط ولاتخاذ القرارات، مثل تحسين الخدمات العامة أو تطوير السياسات. من هنا، تبرز أهمية وجود إطار لحوكمة البيانات يضمن أن هذه البيانات دقيقة وحديثة وقابلة للاستخدام.واستنادًا لتقرير نشرته منظمة Open North في عام 2023م، فإن مؤسسات القطاع العام تواجه تحديات تتعلق بجمع البيانات وتحليلها بشكل فعّال. مما يتطلب من هذه المؤسسات تحسين نضجها الرقمي وتفكيك العوائق التي تحول دون تدفق البيانات بشكل سلس بين المؤسسات الحكومية المختلفة. ويشير التقرير إلى أهمية وجود سياسات حوكمة تُساعد في بناء الثقة والاستفادة من استخدام أدوات الذكاء الاصطناعي، وذلك من خلال التأكيد على الشفافية والمسؤولية في إدارة البيانات. ومن الأهمية بمكان وجود مرجعية لكل مؤسسة فيما يتعلق بحوكمة البيانات. ففي مؤسسات القطاع العام، قد يكون هناك مسؤول عن إدارة البيانات يتولى وضع السياسات المتعلقة بجمع وتحليل البيانات داخل المؤسسة. ويتعين على هذه السياسات أن تتوافق مع القوانين الوطنية النافذة والدولية المتعلقة بالخصوصية والأمن. ولا تقتصر حوكمة البيانات على مؤسسة واحدة فقط، بل يجب أن تتكامل مع مختلف مؤسسات القطاع العام لتحقيق أقصى استفادة من تقنيات الذكاء الاصطناعي. فعلى سبيل المثال لا الحصر، قد تتطلب بعض المشروعات الضخمة، مثل مشروعات البنى الأساسية أو المشروعات الصحية، تعاونًا بين المؤسسات المختلفة لتجنب الهدر في الموارد والجهد. ولضمان نجاح هذا التعاون، يجب أن تكون البيانات مشتركة بين هذه المؤسسات بطريقة تضمن سلامتها وموثوقيتها.ولضمان تدفق سلس للبيانات تبرز أهمية تفكيك الحواجز بين مؤسسات القطاع العام لضمان تدفق سلس للبيانات فيما بينها، وهذا بدوره يعزز من قدرة الذكاء الاصطناعي على تقديم نتائج دقيقة وفعالة. ومن أهم الفوائد التي من الممكن أن تقدمها حوكمة البيانات هو تمكين الذكاء الاصطناعي من تقديم حلول فعالة للمشاكل المعقدة التي تواجه المنظمات. فالذكاء الاصطناعي يعتمد بشكل كامل على البيانات التي يُغذى بها، وبالتالي فإن تحسين جودة هذه البيانات يعني تحسين دقة الأدوات التي تستخدمها المنظمات في تحليل البيانات واتخاذ القرارات. ولتأكيد ما ورد فإنه لا يمكن الاستفادة الكاملة من الذكاء الاصطناعي دون وجود حوكمة شاملة للبيانات المنظمات. إنّ حوكمة البيانات ليست مجرد إجراء تنظيمي، بل هي استراتيجية شاملة تهدف إلى تحسين جودة البيانات، وضمان توافقها مع المعايير الأخلاقية والقانونية، وتعزيز التكامل بين مؤسسات القطاع العام لتحقيق الأهداف المشتركة. وبذلك، تمثل حوكمة البيانات حجر الأساس الذي يدعم نجاح تطبيقات الذكاء الاصطناعي في مؤسسات القطاع العام، ما يسهم في تحسين الخدمات والاستفادة من الطفرات التقنية المتعلقة بالذكاء الاصطناعي وتقديم حلول مبتكرة للخدمات والأعمال والمشروعات. لذلك، ينبغي إعطاء أولوية قصوى لحوكمة البيانات لضمان الاستثمار الأمثل للبيانات، والتي أصبحت من أهم المكونات الأساسية في توظيف التقنيات الحديثة والاستفادة منها، خاصة أدوات الذكاء الاصطناعي، التي تمثل بدورها ركيزة أساسية للتحول إلى الاقتصاد القائم على المعرفة.

المصدر: لجريدة عمان

كلمات دلالية: أدوات الذکاء الاصطناعی حوکمة البیانات جودة البیانات

إقرأ أيضاً:

هل يخفي الذكاء الاصطناعي عنصرية خلف خوارزمياته الذكية؟

 

 

مؤيد الزعبي

بما أننا مقبلون على مرحلة جديدة من استخدامات الذكاء الاصطناعي وجعله قادرًا على اتخاذ القرارات بدلًا عنَّا يبرز سؤال مهم؛ هل سيصبح الذكاء الاصطناعي بوابتنا نحو مجتمع أكثر عدلًا وإنصافًا؟ أم أنه سيعيد إنتاج تحيزاتنا البشرية في قالب رقمي أنيق؟ بل الأخطر من ذلك: هل سيغدو الذكاء الاصطناعي أداة عصرية تمارس من خلالها العنصرية بشكل غير مُعلن؟

قد تحب- عزيزي القارئ- تصديق أن هذه الأنظمة "ذكية" بما يكفي لتكون حيادية، لكن الحقيقة التي تكشفها الدراسات أكثر تعقيدًا؛ فالذكاء الاصطناعي في جوهره يتغذى على بياناتنا وتاريخنا، وعلى ما فينا من تحامل وتمييز وعنصرية، وبالتالي فإن السؤال الحقيقي لا يتعلق فقط بقدرة هذه الأنظمة على اتخاذ قرارات عادلة، بل بمدى قدرتنا نحن على برمجتها لتتجاوز عيوبنا وتاريخنا العنصري، ولهذا في هذا المقال نقترب من هذه المنطقة الرمادية، حيث تتقاطع الخوارزميات مع العدالة، وحيث قد تكون التقنية المنقذ أو المجرم المتخفي.

لنقرّب الفكرة بمثال واقعي: تخيّل شركة تستخدم الذكاء الاصطناعي لفرز السير الذاتية واختيار المتقدمين للوظائف. إذا كانت خوارزميات هذا النظام مبنية على بيانات تحمل انحيازًا ضد جنس أو لون أو جنسية معينة، فقد يستبعد المرشحين تلقائيًا بناءً على تلك التحيزات. وهذا ليس ضربًا من الخيال؛ فقد وجدت دراسة حديثة أجرتها جامعة واشنطن (أكتوبر 2024) أن نماذج لغوية كبيرة أظهرت تفضيلًا واضحًا لأسماء تدلّ على أصحاب البشرة البيضاء بنسبة 85%، مقابل 11% فقط لأسماء مرتبطة بالنساء، و0% لأسماء تعود لأشخاص من ذوي البشرة السوداء، تُظهر هذه الأرقام المقلقة كيف أن خوارزميات الذكاء الاصطناعي، والتي تستخدمها نحو 99% من شركات "فورتشن 500"، يمكن أن تؤثر سلبًا على فرص ملايين الأشخاص الباحثين عن عمل، لا لسبب سوى أنهم وُلدوا بهوية مختلفة، أي أن تحيّز هذه الأنظمة يمكن أن يمس ملايين الباحثين عن العمل.

الأمر يزداد خطورة عند الحديث عن أنظمة التعرف على الوجوه، والتي تُستخدم حاليًا في تعقب المجرمين ومراقبة الأفراد. دراسات عديدة أثبتت أن هذه الأنظمة تخطئ بنسبة تصل إلى 34% عند التعامل مع النساء ذوات البشرة الداكنة، كما تُسجَّل أخطاء في التعرف على الوجوه الآسيوية، ما قد يؤدي إلى اعتقالات خاطئة أو مراقبة غير مبررة لأشخاص أبرياء، فقط لأن الخوارزمية لم تتعلم بشكل عادل، وتخيل الآن كيف سيكون الأمر عندما يدخل الذكاء الاصطناعي- بكل تحيزاته- إلى قاعات المحاكم، أو إلى أنظمة القضاء الإلكترونية، ليصدر أحكامًا أو يوصي بعقوبات مشددة، وحينها بدلًا من أن نصل لقضاء عادل سنصل لعدالة مغلفة بواجهة من الحياد الزائف.

ولننتقل إلى السيناريو الأكثر رعبًا: الذكاء الاصطناعي في المجال العسكري. ما الذي قد يحدث إذا تم برمجة أنظمة قتالية لتحديد "العدو" بناءً على لون بشرة أو جنسية؟ من يتحمل المسؤولية حين ترتكب هذه الأنظمة مجازر على أساس تحيز مبرمج مسبقًا؟ تصبح هذه الأنظمة أداة للقتل بعنصرية عقل إلكتروني، ومن هنا ستتفاقم العنصرية، وستصبح هذه الأنظمة بلا شك أداة لقتل كل ما تراه عدوًا لها ليأتي اليوم الذي تجدنا فيه نحن البشر ألذ أعدائها.

في قطاع الرعاية الصحية أيضًا يمكن للذكاء الاصطناعي أن يكون عنصريًا خصوصًا لو تم برمجتها لتتحكم بمستحقي الدعم الصحي أو حتى استخدامها في أنظمة حجز مواعيد العمليات، فلو وجد أي عنصرية بهذه الأنظمة؛ فبالطبع ستعطي الأولوية لأصحاب بشرة معينة أو جنسية معينة مما سيحرم الكثيرين من الوصول للعلاج في الوقت المناسب.

حتى نكون منصفين هنا نحتاج إلى تمييز دقيق بين نوعين من عنصرية الذكاء الاصطناعي: العنصرية المقصودة: الناتجة عن برمجة متعمدة تخدم مصالح أو توجهات محددة، والعنصرية غير المقصودة: الناتجة عن تغذية الأنظمة ببيانات غير عادلة أو تمثل واقعًا عنصريًا، فتُصبح الخوارزميات انعكاسًا له.

وأيضًا هناك مشكلة مهمة يجب معالجتها فلو عدنا لموضوع الرعاية الصحية؛ فلو قمنا بإدخال بيانات المرضى على هذه الأنظمة وكان حجم البيانات لفئة معينة أكثر من فئة أخرى فربما يعالج الذكاء الاصطناعي هذا الأمر على أن فئة معينة لا تحتاج للعلاج أو تحتاج لرعاية صحية أقل من غيرها وبالتالي يستثنيها من علاجات معينة أو مطاعيم معينة مستقبلًا، ولهذا يجب أن نعمل على تنقيح بيناتنا من العنصرية قدر الإمكان لتجنب تفاقم الأزمة مستقبلا.

يجب ألا نعتقد أبدًا بأن الذكاء الاصطناعي سيكون منصفًا لمجرد أنه آلة لا تفاضل شيء على شيء، فهذا سيمكن الصورة النمطية الموجودة حاليًا في مجتمعاتنا، فالذكاء الاصطناعي تقنية مازالت عمياء وليست واعية بما يكفي لتميز أية التمييز وتحذفه من برمجياتها، إنما تأخذ الأنماط الموجودة وتبني عليها، وسنحتاج وقت أطول لمعالجة هذه الفجوة كلما مضى الوقت.

إذا سألتني عزيزي القارئ ما هي الحلول الممكنة نحو ذكاء اصطناعي عادل وشامل، فالحلول كثيرة أهمها أن نوجد أدوات ذكاء اصطناعي قادرة على إيجاد العنصرية وتبدأ بمعالجتها واستثنائها في خوارزمياتها، وهذه مسؤولية الشركات الكبرى التي تبني نماذج الذكاء الاصطناعي، وثانيًا يجب أن نطور أنظمة ذكاء اصطناعي مبنية على العنصرية فهذه الأنظمة ستطور من نفسها وستكون عدوة للبشرية في قادم الأيام، أيضًا يجب أن يكون هناك تنويع في البيانات  فكلما انعكس التنوع في البيانات والتصميم، كلما انخفضت احتمالية انتشار النتائج العنصرية وحققنا الإنصاف المطلوب.

في النهاية يجب القول إن الذكاء الاصطناعي ليس عدوًا بالضرورة، لكنه قد يكون كذلك إذا تركناه يتغذّى على أسوأ ما فينا وأقصد هنا العنصرية.

رابط مختصر

مقالات مشابهة

  • تمكين الكفاءات السعودية في عصر الذكاء الاصطناعي
  • تليفونك بيراقبك .. كيف تجمع أدوات الذكاء الاصطناعي بياناتك
  • سام ألتمان.. رأس الحربة في الذكاء الاصطناعي الإمبريالي
  • تليفونك بيراقبك.. كيف تجمع أدوات الذكاء الاصطناعي بياناتك؟
  • سامسونج تكشف عن أرخص هواتف الذكاء الاصطناعي
  • علماء روس يستخدمون الذكاء الاصطناعي في فهم الجينات
  • هل يخفي الذكاء الاصطناعي عنصرية خلف خوارزمياته الذكية؟
  • كيف غير الذكاء الاصطناعي شكل التصعيد بين إيران والاحتلال؟
  • الذكاء الاصطناعي قد يتفوق على البشرية بحلول عام 2027
  • تطوير أول دمية باربي بالذكاء الاصطناعي