تخصيص وخصوصية.. كيف تسوق آبل لإعادة تعريف الذكاء الاصطناعي؟
تاريخ النشر: 15th, July 2024 GMT
مع قدوم فصل الخريف، ومع إعلان آبل عن سلسلة هواتف آيفون 16 الجديدة، تقدم الشركة وعدا بأن هواتفها ستعرف المستخدم واحتياجاته جيدا، في محاولة لتسويق تقنيات الذكاء الاصطناعي الجديدة التي أعلنت عن قدومها في مؤتمر المطورين السنوي. لكن لأن نهج آبل دائما مختلف، ويركز أكثر على كيفية دمج أي تقنية جديدة داخل أجهزة الشركة مع الحفاظ على الخصوصية، فلم تذكر أن تلك التقنيات هي "ذكاء اصطناعي"، لكن أطلقت عليها اسما تسويقيا مختلفا وهو "ذكاء آبل".
أو بمعنى أبسط قليلا، يمكننا القول إن "ذكاء آبل" ليس "اصطناعيا" كالبقية، ولكنه شخصي ومخصص لما يحتاجه المستخدم، ويحافظ كذلك على خصوصية بياناته، أو هكذا تراه الشركة على الأقل.
ذكاء آبللا يعد "ذكاء آبل" مجرد نظام ذكاء اصطناعي آخر، بل تضعه الشركة داخل مجموعة متكاملة من الميزات الجديدة التي تعد بتقديم التخصيص مع التركيز على معايير الخصوصية المرتفعة التي تشتهر بها آبل. وفي الكلمة الافتتاحية لمؤتمر المطورين، كشفت الشركة عن هذه الرؤية، مشددة على الخصوصية والأمان للمستخدمين في مواجهة المخاوف التي غالبا ما ارتبطت بتقنيات الذكاء الاصطناعي مؤخرا.
ستعمل تلك الميزات الجديدة على معالجة الإشعارات وكتابة النصوص وتلخيصها وتنفيذ عمليات مشتركة بين التطبيقات. كما سيصبح المساعد الرقمي "سيري" طبيعيا أكثر في نظام التشغيل "آي أو إس 18″، إذ سيتيح إدخال الكلام والنصوص معا، وسيتعامل مع مهام مثل النصوص المجدولة والمهام التي تظهر على الشاشة، مثل تحسين الصور والتعبئة التلقائية للنماذج بتفاصيل المستخدم الشخصية.
وكذلك ستصبح اقتراحات كتابة الرسائل الإلكترونية وملخصات النصوص على نطاق كامل النظام، وستقدم ميزات جديدة لتوليد الصور، مثل ميزة "جينموجي" (Genmoji) و"ملعب الصور" (Image Playground). وستضيف الشركة إمكانيات بحث محسّنة عن الصور وميزات مشابهة لميزة "ماجيك إيريزر" (Magic Eraser) التي توفرها غوغل.
والمختلف في "ذكاء آبل" أنه يسعى لكسب ود المستخدم، من خلال تجنب استخدام مصطلح "الذكاء الاصطناعي" أصلا في تسويقها لهذه التقنيات، تحاول آبل الابتعاد عن الشبهات السيئة المرتبطة بمشكلات نماذج الذكاء الاصطناعي التوليدي التي تواجهها الشركات الأخرى فعلا، وربما أهمها عملية جمع البيانات بصورة عشوائية.
وفي هذا السياق، ذكر غادجو سيفيلا، كبير محللي شركة "إي ماركيتير" المتخصصة في أبحاث السوق، وفقا لموقع فوكس "تخصيص الذكاء الاصطناعي هو الإستراتيجية التي تتبعها شركة آبل. لأن إدراك الشركة لمجال التكنولوجيا الاستهلاكية وكيفية تفاعل المستخدمين مع أجهزتها يمنحها الأفضلية مقارنة بتطبيقات وخدمات الذكاء الاصطناعي المستقلة التي تعتبر الخصوصية فكرة ثانوية".
لذا، فإن التسويق للحفاظ على الخصوصية هو ما سينجّح إستراتيجية تخصيص الذكاء الاصطناعي التي تتبعها آبل، كما يشير تقرير فوكس. ففي الواقع، التخصيص هو إحدى المزايا المهمة لتقنيات الذكاء الاصطناعي، فإذا عرف النموذج احتياجات المستخدم جيدا، يمكنه أن يتوقع ما يرغب فيه ويسهل حياته أكثر.
ذكرت الشركة أنها صممت ميزات الذكاء الاصطناعي الجديدة الخاصة بها لتنفيذ مهام معقدة على أجهزتها، وفي الوقت نفسه تحمي بيانات المستخدم، إذ أوضحت آبل أن عمليات المعالجة ستحدث داخل الجهاز نفسه لضمان الحفاظ على الخصوصية، مما يتطلب شريحة معالجة "إيه 17 برو" أو شريحة من سلسلة معالجات "إم".
وفكرة المعالجة داخل الجهاز في "ذكاء آبل" هو أساس وعدها بالحفاظ على خصوصية المستخدم، كما أكد كريغ فيدريغي، نائب الرئيس الأول لهندسة البرمجيات في آبل، "لا ينبغي عليك تسليم جميع تفاصيل حياتك لتُخزن وتُحلل في سحابة ذكاء اصطناعي تخص شخصا آخر".
على عكس المنافسين، مثل غوغل وأوبن إيه آي، الذين يعتمدون على كميات هائلة من البيانات المجمعة المخزنة على خوادم خارجية، تؤكد آبل أن معظم عمليات المعالجة للذكاء الاصطناعي ستحدث داخل جهاز المستخدم نفسه. وللمهام التي تتطلب قدرات معالجة أكبر وعند الحاجة إلى الوصول إلى الحوسبة السحابية، تقدم آبل ميزة "السحابة الخاصة" مما يضمن عدم تخزين البيانات على خوادم الشركة، وستجري عمليات تحقق مستقلة من خبراء للتأكد من ادعاءات الشركة المتعلقة بخصوصية البيانات، وبهذا تظل البيانات مشفرة وتُحذف بعد الانتهاء من المهمة، مما يقلل من مخاطر الخصوصية.
تجربة المستخدمكذلك التركيز هنا على نطاق وحجم نماذج الذكاء الاصطناعي، غالبا تركز الشركات الأخرى على جمع أكبر كمية من البيانات والمعلومات لتدريب نماذج لغوية ضخمة للغاية، لأن هذا ما يجعل روبوتات المحادثة مفيدة في الأساس.
أما النهج الذي تتبعه آبل، فهو أكثر واقعية قليلا، وهو التركيز على مهام صغيرة يمكن تنفيذها على الجهاز نفسه وتستهدف بها مساعدة المستخدم في أداء المهام اليومية على أجهزته، وهو أمر ليس بجديد على آبل، فإحدى نقاط قوتها في مجال التكنولوجيا الاستهلاكية هو التركيز على تجربة المستخدم في المقام الأول، وتحويلها لتجربة سهلة دون عقبات أو صعوبات تقنية. كما ذكر جين مونستر، الشريك الإداري في شركة ديب ووتر لإدارة الأصول، أن الميزة فيما تقدمه آبل هي سهولة التكامل مع "شات جي بي تي"، وذكر وفقا لرويترز "إنهم يتخلصون فعلا من العقبات التي تحول دون استخدام الذكاء الاصطناعي".
وأساس هذا النهج الذي تتبعه آبل هو تطوير نماذج ذكاء اصطناعي أصغر حجما، تدربها الشركة على مجموعة بيانات خاصة بالمهام التي يحتاجها مستخدمو أنظمة تشغيل أجهزتها.
لذا، فإن "ذكاء آبل" هو ذكاء تسويقي هذا من ناحية، ولكن الشركة تفضل دمج تقنيات الذكاء الاصطناعي بسلاسة داخل أنظمة تشغيل أجهزتها من ناحية أخرى، ولهذا لا تهتم إن كان المستخدم يعرف أصلا كيف تعمل هذه التقنيات أو لا يعرف، المهم أن يستخدمها ببساطة وسهولة، وهذا تحديدا ما تسوق له آبل دائما في مختلف أجهزتها.
لكن تلك النماذج الصغيرة لا تصلح لكافة المهام بالتأكيد، لذا قررت الشركة التوجه للشراكة مع أوبن إيه آي والاستعانة بروبوت المحادثة الأشهر حاليا "شات جي بي تي"، فعندما لا يستطيع المساعد الرقمي "سيري" تنفيذ طلب المستخدم سيلجأ إلى "شات جي بي تي". لكن حين يحدث هذا، تذكر آبل أنه سيطلب إذن المستخدم أولا، وربما بهذا تحاول الشركة التخلص من تحمل مسؤولية الخصوصية عند التعامل مع أطراف خارجية.
لكن يظل السؤال قائما هل تنجح إستراتيجية آبل التسويقية في إعادة تعريف تقنيات الذكاء الاصطناعي فعلا؟ علينا الانتظار حتى الخريف القادم لنرى ردود الفعل عند صدور "ذكاء آبل" رسميا داخل أنظمة تشغيل أجهزتها المختلفة.
المصدر: الجزيرة
كلمات دلالية: حراك الجامعات حريات الذکاء الاصطناعی ذکاء اصطناعی على الخصوصیة ذکاء آبل
إقرأ أيضاً:
الأخلاقيات في الأتمتة: معالجة التحيز في الذكاء الاصطناعي
مع تزايد اعتماد الشركات على الأنظمة الآلية، أصبحت الأخلاقيات مصدر قلق رئيسي. وباتت الخوارزميات تتخذ، بشكل متزايد، القرارات التي كان يتخذها البشر سابقًا، وتؤثر هذه الأنظمة على العديد من مناحي الحياة. تتطلب هذه القوة، التي يملكها الذكاء الاصطناعي، مسؤولية. فبدون قواعد ومعايير أخلاقية واضحة، يمكن للأتمتة أن تُؤدي إلى الظلم وتُسبب الضرر.
يؤثر التحيز وتجاهل الأخلاقيات على الناس بطرق حقيقية. يمكن للأنظمة المتحيزة، على سبيل المثال، أن ترفض منح القروض أو الوظائف أو الرعاية الصحية، ويمكن للأتمتة أن تزيد من سرعة اتخاذ القرارات الخاطئة في حال عدم وجود حواجز حماية. عندما تتخذ الأنظمة قرارًا خاطئًا، غالبًا ما يكون من الصعب الاعتراض عليه أو حتى فهم السبب، ويؤدي غياب الشفافية إلى تحويل الأخطاء الصغيرة إلى مشاكل أكبر.
سبب التحيز في الذكاء الاصطناعي
غالبًا ما ينشأ التحيز في الأتمتة من البيانات. إذا تضمنت البيانات التاريخية تمييزًا، فقد تُكرر الأنظمة المُدربة عليها هذه الأنماط. على سبيل المثال، قد ترفض أداة ذكاء اصطناعي تُستخدم لفحص المتقدمين للوظائف المرشحين بناءً على الجنس أو العرق أو العمر إذا كانت بيانات التدريب الخاصة بها تعكس تلك التحيزات السابقة. ويدخل التحيز أيضًا من خلال التصميم، حيث يمكن للاختيارات المتعلقة بما يجب قياسه، والنتائج التي يجب تفضيلها، وكيفية تصنيف البيانات أن تؤدي إلى نتائج منحرفة.
هناك أنواع عديدة من التحيز. يحدث تحيز العينات عندما لا تُمثل مجموعة البيانات جميع الفئات، بينما قد ينشأ تحيز التصنيف من مدخلات بشرية ذاتية. حتى الخيارات التقنية، مثل نوع الخوارزمية، قد تُشوّه النتائج.
المشاكل ليست نظرية فحسب. فقد تخلت شركة "أمازون" للتجارة الإلكترونية عن استخدام أداة توظيف في عام 2018 بعد أن فضّلت المرشحين الذكور، ووُجد أن بعض أنظمة التعرف على الوجه تُخطئ في تحديد الأشخاص ذوي البشرة الملونة بمعدلات أعلى من غيرهم. تُزعزع هذه المشاكل الثقة في نماذج الذكاء الاصطناعي وتُثير المخاوف.
وهناك مصدر قلق حقيقي آخر. فحتى عندما لا تُستخدم سمات مثل العرق، بشكل مباشر، فإن سمات أخرى مثل الرمز البريدي أو المستوى التعليمي قد تُمثّل بدائل، مما يعني أن النظام قد يُميّز حتى لو بدت المدخلات محايدة، على سبيل المثال، بناءً على المناطق الأكثر ثراءً أو فقرًا. يصعب اكتشاف التحيز دون اختبار دقيق. ويُعدّ ارتفاع حالات تحيز الذكاء الاصطناعي علامة على الحاجة إلى مزيد من الاهتمام بتصميم النظام.
المعايير المهمة
القوانين تُواكب التطور وتحاول معالجة التحيز. يُصنّف قانون الذكاء الاصطناعي للاتحاد الأوروبي، الصادر عام 2024، أنظمة الذكاء الاصطناعي حسب درجة خطورتها. يجب أن تستوفي الأنظمة عالية الخطورة، كتلك المستخدمة في التوظيف أو تقييم الجدارة الائتمانية، متطلبات صارمة، تشمل الشفافية والرقابة البشرية والتحقق من التحيز. في الولايات المتحدة، تعمل الجهات التنظيمية بفاعلية. وتُحذّر لجنة تكافؤ فرص العمل أصحاب العمل من مخاطر أدوات التوظيف المُدارة بالذكاء الاصطناعي، كما أشارت لجنة التجارة الفيدرالية إلى أن الأنظمة المتحيزة قد تُخالف قوانين مكافحة التمييز.
أنظمة أكثر عدالة
لا تنشأ أخلاقيات الأتمتة صدفة، بل تتطلب تخطيطًا دقيقًا، وأدوات مناسبة، واهتمامًا مستمرًا. يجب دمج التحيز والإنصاف في العملية منذ البداية، لا إضافتهما لاحقًا. وهذا يستلزم تحديد الأهداف، واختيار البيانات المناسبة، وإشراك الأطراف المعنية.
يتطلب تحقيق ذلك اتباع بعض الاستراتيجيات الرئيسية:
إجراء تقييمات التحيز
الخطوة الأولى للتغلب على التحيز هي اكتشافه. يجب إجراء تقييمات التحيز مبكرًا وبشكل متكرر، من مرحلة تطوير النموذج إلى نشره، لضمان عدم تحقيق الأنظمة لنتائج غير عادلة. قد تشمل المقاييس القرارات التي يكون لها تأثير أكبر على مجموعة واحدة من غيرها.
يجب أن تُجري جهات خارجية عمليات تدقيق التحيز كلما أمكن ذلك. قد تُغفل المراجعات الداخلية قضايا رئيسية أو تفتقر إلى الاستقلالية، كما أن الشفافية في عمليات التدقيق الموضوعية تبني ثقة الجمهور.
مجموعات بيانات متنوعة
تساعد بيانات التدريب المتنوعة على تقليل التحيز من خلال تضمين عينات من جميع مجموعات المستخدمين، وخاصةً تلك التي غالبًا ما يتم استبعادها. فمساعد صوتي مُدرّب في الغالب على أصوات الرجال لن يُجدي نفعًا مع النساء، ونموذج تقييم الائتمان الذي يفتقر إلى بيانات المستخدمين ذوي الدخل المحدود قد يُسيء تقديرهم.
يساعد تنوع البيانات أيضًا النماذج على التكيف مع الاستخدام الفعلي. ينتمي المستخدمون إلى خلفيات مختلفة، وينبغي أن تعكس الأنظمة ذلك. فالتنوع الجغرافي والثقافي واللغوي جميعها عوامل مهمة. تنوع البيانات لا يكفي بمفرده. فيجب أن تكون دقيقة ومُصنّفة جيدًا.
الشمولية في التصميم
يُشرك التصميم الشامل الأشخاص المتأثرين. ينبغي على المطورين استشارة المستخدمين، وخاصةً المعرضين لخطر الضرر (أو الذين قد يُسببون ضررًا باستخدام الذكاء الاصطناعي المتحيز)، لأن ذلك يُساعد على كشف الجوانب السلبية.
يعني التصميم الشامل أيضًا فرقًا متعددة التخصصات. إن إشراك خبراء الأخلاق والقانون والعلوم الاجتماعية يُمكن أن يُحسّن عملية اتخاذ القرار، لأن هذه الفرق أكثر ميلًا لطرح أسئلة مختلفة ورصد المخاطر.
يجب أن تكون الفرق متنوعة أيضًا. فالأشخاص ذوو التجارب الحياتية المختلفة يكتشفون قضايا مختلفة، والنظام الذي تُنشئه مجموعة متجانسة قد يتغاضى عن مخاطر قد يكتشفها الآخرون.
الخلاصة أن الأتمتة باقية، لكن الثقة في أنظمة الذكاء الاصطناعي تعتمد على عدالة النتائج ووضوح القواعد. إذ قد يُسبب التحيز في أنظمة الذكاء الاصطناعي ضررًا.