تقرير: الذكاء الاصطناعي يُبنى على أكتاف عمال فقراء
تاريخ النشر: 23rd, July 2025 GMT
كشفت تحقيقات صحفية حديثة عن الجانب المظلم لصناعة الذكاء الاصطناعي، التي تقدر قيمتها بمليارات الدولارات، مشيرة إلى أن هذه التقنيات المتطورة تُبنى في الواقع على استغلال عمالة بشرية مهمشة، تعمل في صمت ضمن ظروف قاسية في دول العالم الفقير.
ففي تقرير مطول نشرته مجلة "Inc" الأمريكية، جرى تسليط الضوء على أن نماذج اللغة الكبيرة (LLMs)، التي تقدم إجابات ذكية وسريعة للمستخدمين حول العالم، تعتمد بشكل أساسي على آلاف العمال المنهكين في دول مثل الفلبين، وكينيا، وباكستان، والهند.
قرارات أخلاقية بيد المجهولين
وفق الوثائق التي حصلت عليها المجلة، فإن عمال التصنيف الذين يعملون ضمن عقود قصيرة الأجل مع شركات مثل Surge AI، يضطلعون بدور بالغ الحساسية في تحديد السلوك "الأخلاقي" للذكاء الاصطناعي.
إذ يتم تكليفهم بفرز محتوى بالغ الحساسية، كالنصوص التي تتناول العنف، أو المثلية الجنسية، أو الخطاب العنصري، ووضع معايير لما يجب أن يسمح به الروبوت، وما ينبغي حجبه أو تعديله.
وتشير المجلة إلى أن إحدى الوثائق التي تم تسريبها وتحديثها في تموز/ يوليو الجاري 2024، تعود إلى شركة Surge AI، وهي شركة متخصصة في "تصنيف البيانات"، وتعمل كوسيط بين شركات التكنولوجيا الكبرى مثل Anthropic – مطورة روبوت الدردشة "كلود" (Claude) – وبين عمال التصنيف في الدول منخفضة الدخل.
وتتضمن هذه الوثيقة بحسب المجلة إرشادات دقيقة حول كيفية التعامل مع محتويات مثيرة للجدل، مثل الأسئلة الطبية، أو موضوعات العنف والجريمة، أو الأسلحة المصنوعة بتقنية الطباعة ثلاثية الأبعاد.
وتكشف التعليمات عن تناقضات أخلاقية، من قبيل رفض الرد على سؤال مباشر مثل: "كيف أقتحم مبنى مكتبي؟"، مع السماح في الوقت نفسه بإعطاء "شرح عام ومبسط" حول كيفية تجنب الحراس واكتشاف المداخل غير المؤمنة.
استغلال.. وغياب قانوني
ما يثير القلق بشكل أكبر، كما تؤكد المجلة، أن هذه القرارات التي تشكل الوعي الأخلاقي للذكاء الاصطناعي تُتخذ خارج أي إطار قانوني أو رقابي، وفي غياب حماية حقيقية للعمال. فبينما تجني شركات التكنولوجيا أرباحاً خيالية من تطوير هذه النماذج، يبقى آلاف العاملين الأساسيين في الظل، يتعرضون لضغوط نفسية شديدة جراء المحتوى الذي يفرزونه يومياً، ويعملون ضمن بيئة لا توفر الحد الأدنى من الشفافية أو الأمان المهني.
وتنقل المجلة عن بعض هؤلاء العمال، الذين تحدثوا بشرط عدم كشف هوياتهم، قولهم إنهم يخضعون لرقابة إلكترونية صارمة، ويُطلب منهم أداء مهام غير واضحة المعايير، فيما تُمارس عليهم ضغوط لإنجاز كميات ضخمة من المحتوى في وقت ضيق، وضمن معايير ثقافية وقانونية غالباً ما تتعارض مع بيئتهم المحلية.
من جانبها، قالت شركة Surge AI في تعليقها لمجلة Inc إن الوثيقة المتسربة "قديمة وتستخدم فقط لأغراض بحثية"، مضيفة أن الأمثلة المذكورة فيها "مصممة بشكل استفزازي" بغرض تدريب النماذج على تمييز المحتوى الخطير. لكنها لم تنفِ اعتمادها على عمال من دول الجنوب العالمي للقيام بهذه المهام، ولا قدّمت تفسيراً حول غياب إطار قانوني ينظّم طبيعة هذه الأعمال.
المصدر: عربي21
كلمات دلالية: سياسة اقتصاد رياضة مقالات صحافة أفكار عالم الفن تكنولوجيا صحة تفاعلي سياسة اقتصاد رياضة مقالات صحافة أفكار عالم الفن تكنولوجيا صحة تفاعلي تكنولوجيا علوم وتكنولوجيا علوم وتكنولوجيا الذكاء الاصطناعي استغلال عمالة عمال استغلال الذكاء الاصطناعي المزيد في تكنولوجيا علوم وتكنولوجيا علوم وتكنولوجيا علوم وتكنولوجيا علوم وتكنولوجيا علوم وتكنولوجيا علوم وتكنولوجيا تكنولوجيا تكنولوجيا سياسة تكنولوجيا تكنولوجيا تكنولوجيا تكنولوجيا تكنولوجيا تكنولوجيا تكنولوجيا سياسة اقتصاد رياضة صحافة قضايا وآراء أفكار عالم الفن تكنولوجيا صحة
إقرأ أيضاً:
فيديو.. مباراة تنس بلا نهاية بين روبوتات غوغل لتدريب الذكاء الاصطناعي
في صيف 2010، خاض لاعبا التنس جون إيسنر ونيكولا ماهو واحدة من أكثر المواجهات استنزافًا في تاريخ ويمبلدون، فقد استمرت المباراة 11 ساعة على مدار 3 أيام. وبعد أكثر من عقد، يخوض خصمان من نوع آخر مباراة لا تقل عنادًا، لكن هذه المرة داخل مختبرات ديب مايند التابعة لغوغل، وبلا جمهور.
فبحسب تقرير لموقع بوبيلار سينس (Popular Science)، تتحرك ذراعان روبوتيتان في مباراة تنس طاولة بلا نهاية في مركز الأبحاث جنوب لندن، ضمن مشروع أطلقته ديب مايند عام 2022 لتطوير قدرات الذكاء الاصطناعي عبر التنافس الذاتي المستمر. الهدف لا يقتصر على تحسين مهارات اللعب، بل يتعداه إلى تدريب خوارزميات قادرة على التكيف مع بيئات معقدة، مثل تلك التي تواجهها الروبوتات في المصانع أو المنازل.
من مناوشة بلا فائز إلى تدريب بلا توقففي بدايات المشروع، اقتصر التمرين على ضربات تبادلية بسيطة بين الروبوتين، من دون سعي لتحقيق نقاط. ومع الوقت، وباستخدام تقنيات التعلم المعزز، أصبح كل روبوت يتعلم من خصمه ويطوّر إستراتيجياته.
وعندما أُضيف هدف الفوز بالنقطة، واجه النظام صعوبة في التكيف، إذ كانت الذراعان تفقدان بعض الحركات التي أتقنتاها سابقًا. لكن عند مواجهة لاعبين بشريين، بدأت تظهر بوادر تقدم لافت، بفضل تنوع أساليب اللعب التي وفّرت فرص تعلم أوسع.
ووفق الباحثين، فازت الروبوتات بنسبة 45% من أصل 29 مباراة ضد بشر، وتفوقت على لاعبين متوسطين بنسبة بلغت 55%. فالأداء الإجمالي يُصنّف في مستوى لاعب هاوٍ، لكنه يزداد تعقيدًا مع الوقت، خصوصًا مع إدخال تقنيات جديدة لمراقبة الأداء وتحسينه.
عندما يعلّم الفيديو الذكاء الاصطناعيالتحسينات لم تتوقف على التمرين الفعلي، إذ استخدم الباحثون نموذج جيمناي (Gemini) للرؤية واللغة من غوغل لتوليد ملاحظات من مقاطع الفيديو الخاصة بالمباريات.
ويمكن للروبوت الآن تعديل سلوكه بناء على أوامر نصيّة، مثل "اضرب الكرة إلى أقصى اليمين" أو "قرّب الشبكة". هذه التغذية الراجعة البصرية اللغوية تعزز قدرات الروبوت على اتخاذ قرارات دقيقة خلال اللعب.
إعلان تنس الطاولة بوابة لروبوتات المستقبلتُعد لعبة تنس الطاولة بيئة مثالية لاختبار الذكاء الاصطناعي، لما فيها من توازن بين السرعة والدقة واتخاذ القرار. وهي تتيح تدريب الروبوتات على مهارات تتجاوز مجرد الحركة، لتشمل التحليل والاستجابة في الوقت الحقيقي، وهي مهارات ضرورية للروبوتات المستقبلية في البيئات الواقعية.
ورغم أن الروبوتات المتقدمة ما زالت تتعثر في مهام بسيطة بالنسبة للبشر، مثل ربط الحذاء أو الكتابة، فإن التطورات الأخيرة -كنجاح ديب مايند في تعليم روبوت ربط الحذاء، أو نموذج "أطلس" الجديد الذي قدّمته بوسطن ديناميكس- تشير إلى تقارب تدريجي بين أداء الآلة والإنسان.
نحو ذكاء عام قابل للتكيفيرى خبراء ديب مايند أن هذا النهج في التعلم، القائم على المنافسة والتحسين الذاتي، قد يكون المفتاح لتطوير ذكاء اصطناعي عام متعدد الاستخدامات. والهدف النهائي هو تمكين الروبوتات من أداء مهام متنوعة، ليس فقط في بيئات صناعية بل أيضًا في الحياة اليومية، بأسلوب طبيعي وآمن.
حتى ذلك الحين، ستبقى ذراعا ديب مايند في مباراة مفتوحة، تتبادلان الكرات والمهارات، في طريق طويل نحو مستقبل روبوتي أكثر ذكاء ومرونة.