في عصر يلجأ فيه الملايين إلى الإنترنت يوميا للبحث عن إجابات للأسئلة الصحية، أصبحت الحاجة إلى معلومات طبية موثوقة ودقيقة أكثر إلحاحًا من أي وقت مضى.

ومع تزايد حجم المحتوى الطبي المتاح عبر الشبكة، تواجه منصات البحث، مثل "غوغل"، تحديًا كبيرًا في تحقيق التوازن بين توفير إجابات سريعة وضمان دقتها العلمية.

ويأتي هنا دور الذكاء الاصطناعي كأداة حاسمة لمعالجة هذه المعضلة، إذ تطور "غوغل" تقنيات مبتكرة لفهم الأسئلة الطبية المعقدة، وتصفية المصادر غير الموثوقة، والتعاون مع الخبراء الطبيين لبناء نظام بحث أكثر أمانًا وموثوقية.

"غوغل" دمجت منذ سنوات نماذج الذكاء الاصطناعي في خدماتها الصحية (شترستوك) الذكاء الاصطناعي في خدمة الصحة العامة

دمجت "غوغل" منذ سنوات نماذج الذكاء الاصطناعي في خدماتها الصحية، بدءًا من تحليل صور الأشعة، مرورًا بالتنبؤ بمخاطر الأمراض، ووصولًا إلى تحسين جودة المعلومات الطبية.

ولكن التطورات الجديدة تركز بشكل خاص على فهم نية المستخدم حين يطرح سؤالًا صحيا، والرد عليه بإجابات مبنية على بيانات موثوقة، بل صياغتها بأسلوب مفهوم وسهل.

وتتعلق نسبة كبيرة من عمليات البحث اليومية بالصحة. وفي هذا السياق، تصبح دقة الفهم وتحديد المصدر أمرًا بالغ الحساسية، وخصوصًا عندما تتعلق الأسئلة بحالات حرجة أو أمراض مزمنة أو نصائح علاجية.

الذكاء الاصطناعي يُحسِّن فهم الأسئلة الطبية

تعتمد "غوغل" على نماذج لغوية متقدمة، ولكنها لا تكتفي بالتحليل اللغوي المعتاد، بل تخضع الأسئلة الطبية لسلسلة من العمليات التي تهدف إلى فهم القصد، وتصنيف المستوى الطبي للسؤال، وتحديد حساسيته من حيث كونه يتطلب تدخلًا متخصصًا أو مجرد معلومة عامة. ويأتي هنا دور تقنيات معالجة اللغة الطبيعية من أجل تحليل الأسئلة الطبية التي يكتبها المستخدمون بأشكال مختلفة.

وفي عام 2019، قدمت "غوغل" النموذج اللغوي "بيرت" (BERT) الذي يحسّن فهم السياق في الجملة من خلال تحليل علاقة الكلمات ببعضها بدلًا من معالجتها بشكل منفرد.

إعلان

ويعد هذا النموذج مفيدًا في تفسير الأسئلة الطبية التي تحتوي على مصطلحات متخصصة أو الأسئلة التي تكتب باللغة العامية.

وعندما يبحث شخص عن "ألم في الصدر مع دوخة"، يحدد النموذج اللغوي العلاقة بين الأعراض ويقترح أسبابًا محتملة، مثل وجود مشاكل قلبية أو انخفاض ضغط الدم، بدلًا من تقديم نتائج عامة.

ولا يقتصر دوره على استرجاع صفحات تحتوي على كلمات مطابقة، بل على فهم القصد الحقيقي خلف السؤال وتفسير السياق وتحليل النية بطريقة أقرب إلى التفكير البشري.

كذلك طوّرت "غوغل" أنظمة ذكاء اصطناعي قادرة على التمييز بين الاستخدامات المختلفة للمصطلح الطبي نفسه.

فعلى سبيل المثال، فإن كلمة "ورم" قد تشير إلى حالة خطيرة أو إلى ورم حميد، حسب السياق. وتعتمد الخوارزميات على تحليل آلاف الوثائق الطبية والدراسات العلمية لتعلم الفروق الدقيقة.

وكشفت "غوغل" عن نموذج "ميد-بالم" (Med-PaLM) المدرب خصيصًا على بيانات طبية، ويعدّ أحد النماذج الأولى القادرة على الإجابة عن أسئلة طبية معقدة بدقة توازي دقة الأطباء البشر في بعض الاختبارات.

ويستطيع هذا النموذج معالجة أشكال متنوعة من البيانات الطبية، بما في ذلك النصوص والصور، مثل الأشعة السينية والمسح الضوئي، وحتى المعلومات الجينية، مما يتيح فهمًا أكثر شمولًا لصحة المريض.

حرب خفية ضد التضليل

لا شك في أن واحدة من أخطر الإشكالات التي تواجه المستخدم اليوم هي تداخل المعلومات الطبية الصحيحة مع المحتوى غير الدقيق أو المضلل أو حتى الضار.

ومن أجل مواجهة هذا التحدي، تلعب الخوارزميات الجديدة دورًا محوريا في غربلة المحتوى وتصنيفه بالاعتماد على أنظمة تصنيف المصادر.

ولا تنظر هذه الأنظمة إلى شهرة الموقع أو عدد الزيارات فقط، بل تقيّم جملة مؤشرات، مثل وجود مراجعة طبية واضحة للمحتوى، والكشف عن اسم المؤلف وخبرته، وذكر المصادر العلمية الأصلية، وتوافق المعلومات مع الإرشادات الطبية الموصى بها عالميا.

وقد أدخلت الشركة تحسينات جوهرية على الخوارزميات التي تستخدم عند التعامل مع المحتوى الصحي، لتصنيف مدى ثقة المستخدم بالمعلومة قبل أن تظهر له.

وتعطي "غوغل" الأولية للمحتوى الذي يُحدّث وفقًا لأحدث الأبحاث الطبية، في حين تكتشف الخوارزميات المحتوى الذي يعتمد على نظريات مؤامرة أو ادعاءات غير مدعومة بدراسات.

كما تعتمد "غوغل" لمراجعة المحتوى الطبي على تعاونها مع منظمات، مثل "منظمة الصحة العالمية" (WHO) و"مايو كلينك" (Mayo Clinic) و"المركز الأميركي لمكافحة الأمراض" (CDC).

"غوغل" تعطي الأولية للمحتوى الذي يُحدّث وفقًا لأحدث الأبحاث الطبية (شترستوك) الجسر بين التكنولوجيا والممارسة السريرية

لا يمكن للذكاء الاصطناعي وحده أن يحل محل الخبرة البشرية في المجال الطبي. لذلك، تعتمد "غوغل" على شراكات إستراتيجية مع أطباء وباحثين لضمان توافق تقنياتها مع الممارسات السريرية الحالية.

وقد وظفت الشركة أطباء واختصاصيين يعملون بشكل مباشر مع فرق تطوير الذكاء الاصطناعي لمراجعة النتائج وتقديم ملاحظات علمية تسهم في تدريب النماذج.

وتستخدم هذه المراجعات لاحقًا لتحسين أداء أنظمة البحث وضبط استجابات الذكاء الاصطناعي بناء على الملاحظات الإكلينيكية الفعلية.

إعلان

وساعدت هذه الشراكات في تقليل ظهور المعلومات غير الدقيقة بنسبة كبيرة في بعض المواضيع الطبية العالية الحساسية، مثل السرطان والاكتئاب وصحة الأطفال.

وبالتعاون مع جامعات مثل "هارفارد" و "ستانفورد"، تطور "غوغل" أدوات تساعد الأطباء في تشخيص الأمراض عبر دمج الذكاء الاصطناعي مع البيانات السريرية.

وتتيح "غوغل" لمنظمات طبية إمكانية تحديث المحتوى الطبي مباشرة في قاعدة بياناتها، بما يضمن وصول المستخدمين إلى أحدث التوصيات.

الحدود الأخلاقية لتدخل الذكاء الاصطناعي في الصحة

رغم كل هذا التقدم، تعترف "غوغل" أن الذكاء الاصطناعي ليس بديلًا عن التشخيص الطبي.

وتحرص الشركة في جميع النتائج التي تتعلق بالصحة على إضافة عبارات تحذيرية تؤكد ضرورة مراجعة الطبيب المختص وعدم الاعتماد الكلي على المعلومات المقدمة.

كما وضعت سياسات تمنع استخدام منصاتها للإعلانات التي تروّج لعلاجات غير مثبتة علميا، أو التي تستغل مخاوف المرضى. وتُراجع هذه السياسات دوريا بالتعاون مع جهات رقابية وصحية عالمية.

التحديات والانتقادات

لا تزال جهود "غوغل" تواجه انتقادات، منها الخصوصية والتحيز الخوارزمي والمسؤولية القانونية والأخطاء والهلاوس التي قد تنتج عن الأنظمة الجديدة.

ويتطلب بناء النماذج الطبية الوصول إلى بيانات حساسة للمرضى، ويثير مخاوف قانونية وأخلاقية. وحذر بعض المراقبين من أن "غوغل" قد تستخدم بيانات صحية من دون موافقة المرضى.

وإذا كانت البيانات المستخدمة في التدقيق تمثل فئة ديمغرافية معينة، فإن ذلك يعني إهمال احتياجات مجموعات أخرى.

كما أن هناك نقاشات مستمرة حول من يتحمل مسؤولية الخطأ في التشخيص الافتراضي وتبعاته الصحية.

ختامًا، بين خوارزميات تصفية المحتوى، وفهم السياق الطبي، والتعاون مع الخبراء، تضع "غوغل" الذكاء الاصطناعي في قلب إستراتيجيتها لتقديم تجربة بحث صحي أكثر موثوقية وإنسانية.

وتطمح الشركة إلى أن تصبح شريكًا معرفيا في الرعاية الصحية الرقمية، مستندة إلى الخوارزميات الدقيقة، والمصادر الموثوقة، والشراكات مع القطاع الطبي.

المصدر: الجزيرة

كلمات دلالية: حريات الذکاء الاصطناعی فی

إقرأ أيضاً:

سام ألتمان.. رأس الحربة في الذكاء الاصطناعي الإمبريالي

في كلّ لحظة من التاريخ، كانت التكنولوجيا أداة يتوسل بها الإنسان تجاوز حدوده، لكنها لم تكن يوما بريئة تماما من شهوة السلطة. فمنذ الثورة الصناعية حتى الطفرة الرقمية، لا تنفصل أعظم الابتكارات عن صراعات النفوذ والهيمنة، وإن بدت في ظاهرها خدمة للتقدم البشري.

ولعلّ عبارة اللورد آكتون الشهيرة "السلطة تفسد، والسلطة المطلقة تفسد فسادا مُطلقا"، تعود اليوم لتلامس بعمق ما يجري خلف الكواليس في سباق الذكاء الاصطناعي. وقد وردت هذه المقولة في رسالة كتبها المؤرخ البريطاني اللورد إلى الأسقف مانديل كريتون في عام 1887، وهي من أشهر الاقتباسات في الفكر السياسي والتاريخي حول العلاقة المعقدة بين السلطة والفساد، حيث تعكس تحذيرا أخلاقيا من طغيان النفوذ حين لا يُواجه بالمحاسبة أو بالمساءلة التاريخية.

لم يعد السؤال المطروح اليوم: إلى أين ستأخذنا هذه التكنولوجيا؟ بل: من يقودها؟ ولماذا؟ فوراء الوعود البراقة بتحسين العالم وتوسيع قدرات الإنسان، يكمن طموح معقد تتداخل فيه الرؤية والمصلحة، والريادة والمنافسة، والإيثار المُدّعى والنرجسية الخفية.

في هذا المشهد المتسارع، يظهر اسم سام ألتمان، ليس فقط كمهندس الطفرة الحالية في الذكاء الاصطناعي، بل كرمز لتحوّل أعمق في طبيعة السلطة في القرن الـ21.

إعلان

من خلال كتاب "المتفائل: سام ألتمان، أوبن إيه آي، وسباق اختراع المستقبل" (The Optimist: Sam Altman, OpenAI, and the Race to Invent the Future) للصحفية كيش هاغي، و"إمبراطورية الذكاء الاصطناعي" (Empire of AI) لكارين هاو، تتكشف لنا صورة متعددة الأبعاد لرجل يبدو في الظاهر مدفوعا بإيمان شبه ديني بإمكانات الذكاء الاصطناعي، لكنّه في العمق لاعب ماهر في معادلة السلطة الجديدة.

هذه ليست فقط سيرة شخصية، بل مرآة لما وراء السطور حيث يتقاطع الإيمان بالمستقبل مع الرغبة في السيطرة عليه.

لعل التفاؤل الذي يروج له سام ألتمان أو "المتفائل" كما يصفه عنوان كتاب هاغي ليس أكثر من قناع ناعم يخفي تناقضات عصر الذكاء الاصطناعي (غيتي) سام ألتمان.. بورتريه المتفائل في عصر الذكاء الاصطناعي

في كتابها الجديد "المتفائل: سام ألتمان، أوبن إيه آي، وسباق اختراع المستقبل"، تقدم الصحفية الاقتصادية كيتش هاغي قراءة سردية تحليلية لشخصية تجسد التوترات الجوهرية في عصر الذكاء الاصطناعي: سام ألتمان، المدير التنفيذي لشركة "أوبن إيه آي".

لا تبدأ هاغي الحكاية من المؤسسة، بل من الفرد. فاختيارُها أن تجعل من ألتمان محورا لسردها لا ينطلق من إعجاب أو تبجيل، بل من قناعة بأن مشروع الذكاء الاصطناعي، في جوهره، "مشروع أخلاقي"، ولذا فهو مشروع يُقاس بأثره على البشر، ومن يقوده من بشر.

وُلد ألتمان في الغرب الأوسط الأميركي، في بيت يجمع بين المثالية التقدمية لوالده، الذي عمل على تمويل مشاريع الإسكان الميسر، والبراغماتية الطبية لوالدته، طبيبة الأمراض الجلدية. كان ذلك الخيط القيمي العملي، كما توحي هاغي، أحد العوامل التي شكلت رؤيته المبكرة: تفاؤل مشوب بالقلق، وإيمان بأن التقدم ممكن، وإن بدا أحيانا بطيئا ومتناقضًا.

ألتمان، القصير النحيل، اليهودي والشاذ جنسيا، لا يشبه من الناحية النمطية "شقيق التكنولوجيا" (Tech Bro) الذي يرتدي سترة بقلنسوة ويختبئ خلف شاشة كود. بل يبدو أشبه بـ"راوي المستقبل" بدلا من أن يكون مجرد مهندسه.

تكتب هاغي بأن زواجه من شريكه، مثّلَ، بالنسبة له، دليلا شخصيا على أن المجتمع يتغير فعلا، وهو ما يعزز، في نظرها، إيمانه بفكرة التقدم. وتقول في حوار لها مع موقع تك كرنش: "لقد رأى المجتمع يتغير فعليا وأعتقد أن هذا ما عزز إيمانه بفكرة التقدم".

كان هذا الإيمان حاضرا أيضا حين نشر ألتمان تغريدة مقتضبة في 30 نوفمبر/تشرين الثاني 2022، أعلن فيها إطلاق "شات جي بي تي". كتب فقط: "اليوم أطلقنا ChatGPT. جرب التحدث معه هنا: chat.openai.com". ثم أضاف في رد على نفسه: "واجهات اللغة ستكون أمرا كبيرا، على ما أظن".

إعلان

وإذا كان يبدو وكأنه يقلل من أهمية الحدث، فقد كان الواقع أكبر من التوقعات. إذ أصبح "شات جي بي تي" أسرع خدمة ويب تصل إلى مليون مستخدم، وأشعل شرارة سباق عالمي محموم على الذكاء الاصطناعي. لحظة فاصلة ترسمها هاغي ببراعة، كاشفة عن مفارقة شخصية ألتمان: رجل يشعل تحولا تقنيا هائلا، لكنه يقدمه ببساطة شبه خجولة.

فمند سنّ الـ19، حين أسس شركته الناشئة الأولى "لوبت" (Loopt)، بدا أن ألتمان لا يجيد فقط بناء الشركات، بل بناء الروايات أيضا. في "يو كومبيناتور" (Y Combinator)، ثم "أوبن إيه آي" كرس هذا الحسّ القصصي في جمع التمويل وبناء التحالفات. تصفه هاغي بأنه "موهبة نادرة في جمع الأموال، وهو أمر يتعلق في جوهره بسرد القصص".

لكنه أيضا رجل يثير الحيرة، حيث إن ما يقوله لا يتطابق دائما مع ما يحدث فعليا. تلاحظ هاغي أن هذا التوتر يتكرر، لا سيما في لحظات محورية مثل تلك التي عرفتها "أوبن إيه آي" أواخر عام 2023، حين أقاله مجلس الإدارة غير الربحي، لتنفجر أزمة داخلية هائلة. أكثر من 700 موظف من أصل 770 وقعوا على عريضة تهدد بالاستقالة ما لم يُعَد ألتمان. وخلال 5 أيام فقط، عاد إلى منصبه أقوى من أي وقت مضى.

سياسيا، ينتمي ألتمان إلى ما يسميه "الليبرالية التقليدية"، مؤمنا بأن الدولة يجب أن تلعب دورا رئيسيا في تمويل وتنظيم الذكاء الاصطناعي، على غرار ما فعلته في مؤسسات بحثية تاريخية مثل "بيل لابس" (Bell Labs) و"زيروكس بارك" (Xerox PARC). لكنه في الوقت ذاته يحتفظ بعلاقات جيدة مع إدارة ترامب.

وتقول هاغي في وصف مفارق لتلك العلاقة لموقع تك كرانش: "سام ألتمان ولد لهذا العصر، فهو صانع صفقات، وترامب أيضا صانع صفقات. وترامب لا يحترم شيئا بقدر الصفقات الكبرى".

هذه الشخصية المزدوجة، ما بين الطموح الأخلاقي والحسابات الواقعية، تتجلى أيضا في تجولات "أوبن إيه آي" نفسها، من منظمة غير ربحية تنشر شيفرتها البرمجية علنا، إلى شركة تربح المليارات وتغلق أبوابها. ومن شراكة مثالية مع شخصيات كـإيلون ماسك، إلى خصومات قانونية، ومن التزام بـ"الذكاء لخدمة البشرية"، إلى صراع داخلي على السلطة والبوصلة.

إعلان

هاغي لا تقدمه بطلا، ولا تُدين سلوكياته، ولكنها تعترف بأنه، في قلب كل هذا الضجيج، يقف رجلا عاديا، يتمتع بكاريزما هادئة وذكاء إستراتيجي، في مركز زلزال غير عادي، ومتفائلا في زمن قلق. وتلك، كما تلمح، هي نقطة قوته، وربما أيضا نقطة ضعفه.

تأخذ "أوبن إيه آي" مكانة خاصة حيث يظهر ألتمان كقائد بارع في هندسة السلطة الرقمية غير الديمقراطية (أسوشيتد برس) الوجه الآخر.. إمبراطورية الذكاء الاصطناعي والهيمنة على حساب البيئة والعدالة الاجتماعية

لكن خلف هذا التفاؤل الكبير الذي يحيط بشخصية سام ألتمان وطموحه في تطوير الذكاء الاصطناعي، تكمن حقائق أكثر قتامة، كما توضحها الصحفية التقنية كارين هاو في كتابها الجديد "إمبراطورية الذكاء الاصطناعي" (Empire of AI).

في حوار لها مع موقع ديموكراسي ناو (Democracy Now)، تسلط هاو الضوء على التحول العميق الذي شهدته هذه التكنولوجيا، من مشروع معرفي بحت إلى أداة ضخمة للهيمنة الاقتصادية والسياسية.

حيث تتحول الشركات الكبرى في هذا المجال، وعلى رأسها "أوبن إيه آي" التي يقودها ألتمان، إلى قوى إمبراطورية حديثة تسيطر على موارد هائلة وتؤثر بشكل عميق على المجتمعات والبيئة.

تصف هاو تطور الذكاء الاصطناعي في وادي السيليكون بأنه نمط توسعي "بأي ثمن"، يعتمد على تدريب النماذج على كميات هائلة من البيانات التي تشمل الإنترنت بالكامل باللغة الإنجليزية، بما في ذلك أعمال الفنانين والكتّاب، مع استخدام حواسيب خارقة تستهلك طاقة ضخمة ومياهًا عذبة للتبريد.

هذا المسار الاستثنائي في تطوير الذكاء الاصطناعي يسبب أضرارا اجتماعية وبيئية وعماليّة جسيمة، مما دفعها لاستخدام تشبيه "الإمبراطورية" لوصف هذه الصناعة بكل أبعادها.

في هذا السياق، تشير هاو إلى حجم الاستهلاك الهائل للطاقة، حيث يفيد تقرير شركة ماكنزي بأن مراكز البيانات ستحتاج خلال السنوات الخمس المقبلة إلى طاقة تعادل ضعف استهلاك ولاية كاليفورنيا السنوي أو أكثر إلى 6 أضعاف، مع اعتماد كبير على الوقود الأحفوري.

إعلان

هذا الواقع دفع بعض الجهات إلى تمديد عمر محطات الفحم وتركيب توربينات غاز الميثان دون ترخيص، تعبيرا عن السعي المستمر لتأمين مصادر طاقة ضخمة لهذه الصناعة.

على صعيد المياه العذبة، توضح هاو أن مراكز البيانات تستخدم كميات ضخمة من مياه الشرب النقية في تبريد معداتها، وغالبا ما تُبنى هذه المراكز في مناطق تعاني من شحّ المياه، مما يفاقم أزمة الموارد الطبيعية ويؤدي إلى توترات اجتماعية حقيقية.

مثال صارخ على ذلك هو تشيلي، حيث واجه السكان المحليّون استيلاءً محتملا لشركة غوغل على كميات ضخمة من المياه تعادل ألف ضعف ما يستخدمه المجتمع سنويا، دون أي مقابل يعود عليهم، مما دفعهم إلى تنظيم حملات واعتصامات دافعت عن حقوقهم وحصلوا من خلالها على مقعد في المفاوضات الحكومية.

استعمار البيانات واستغلال الجنوب العالمي

وفي موازاة هذا الاستنزاف البيئي، يكشف الكتاب عن بعد آخر للاستغلال يتمثل في استغلال "العمال الرقميين" في دول الجنوب العالمي.

في سياق المنافسة المتصاعدة بين شركات الذكاء الاصطناعي الغربية مثل "أوبن إيه آي" و"غوغل" و"ميتا"، والشركات الصينية، تتبلور صورة صناعة تسيطر عليها قوى رأسمالية ضخمة تعتمد على استغلال عُمال رقميّين في دول مثل كينيا وفنزويلا والفلبين.

هؤلاء العمال الذين ينجزون مهاما حاسمة في تعليم البيانات ومراقبة المحتوى، يعانون من ظروف عمل هشة تتراوح بين الأجور المنخفضة والضغط النفسي الناتج عن التعرض المستمر لمحتوى عنيف أو مروّع، إضافة إلى ممارسات قمعية مثل الطرد بسبب محاولات تنظيم النقابات.

تعزز هذه الممارسات منطق "الاستعمار البياني" كما تصفه هاو، حيث تدخل شركات الذكاء الاصطناعي إلى دول ذات مؤسسات ضعيفة واقتصاديات هشة، مستغلة العمال المستعدين للعمل بأي أجر، وسط غياب حماية فعالة من قبل الحكومات المحلية، التي غالبا ما تكون عاجزة أو متواطئة مع هذه الاستثمارات.

إعلان

في مواجهة هذه الصورة المظلمة، تنقل هاو شهادات من فنانين وفنانات غربيين فقدوا فرص عملهم بسبب الاستغلال غير القانوني لأعمالهم الفنية في تدريب نماذج الذكاء الاصطناعي، مما يحول هذه النماذج إلى بدائل لا تراعي حقوق الإبداع ولا تعوض أصحابها، مما يخلق أزمة حقيقية في حقول الإبداع والفنون.

ومع ذلك، يشير الكتاب إلى وجود نماذج بديلة وأخلاقية لتطوير الذكاء الاصطناعي، كما في مشروع "بيغ ساينس" (BigScience) المفتوح المصدر، ومبادرات محلية في نيوزيلندا لإنشاء أدوات لغوية تحترم خصوصيات المجتمعات الأصلية وتراخيص البيانات، مما يبرز إمكانات مختلفة لتقنياتِ الذكاء الاصطناعي بعيدة عن الهيمنة والاستغلال.

الذكاء الاصطناعي لم يعد مجرد أداة تقنية بل تحول إلى مشروع سياسي واقتصادي واجتماعي واسع النطاق (رويترز) "أوبن إيه آي".. إمبراطورية داخل الإمبراطورية

ومن بين هذه القوى الرقمية الجديدة، تبرز "أوبن إيه آي" بقيادة سام ألتمان كأحد أبرز رموز هذا التحول الإمبراطوري.

ففي هذا السياق تأخذ "أوبن إيه آي" مكانة خاصة، حيث يظهر ألتمان كقائد بارع في هندسة هذه السلطة الرقمية غير الديمقراطية. فقد تحولت "أوبن إيه آي" من منظمة غير ربحية تدعُو للشفافية والانفتاح، إلى آلة رأسمالية شرهة تتبنى منهج "النمو بأي ثمن"، مهددة القيم التي تأسست عليها.

أنشأت جناحا ربحيا ضمن هيكلها لجمع مليارات الدولارات، مما جعلها من أقوى وأكبر الشركات في عالم الذكاء الاصطناعي، مستغلة التمويل الضخم دون أن يكون لها حتى الآن تأثير اقتصادي واضح يتناسب مع ثقلها المالي. هذا التحول يكشف التناقض بين الوعود الطموحة والواقع المهيمن على صناعة الذكاء الاصطناعي.

من جهة مماثلة، توضح هاو أيضا العلاقة المتشابكة بين شركات الذكاء الاصطناعي وقطاع الدفاع، حيث تسعى هذه الشركات لتعويض استثماراتها الضخمة من خلال عقود مع الجيش الأميركي، مما يثير مخاوف بشأن توظيف هذه التكنولوجيا في سياقات عسكرية حساسة، وهو ما يمثل توسعا جديدا لـ "إمبراطورية" هذه الشركات التي تستخدم الحكومة الأميركية لتعزيز نفوذها، في حين تستغلها الحكومة ذاتها في أغراضها.

على الصعيد التشريعي، تشدد هاو على خطورة بند أُدرج في مشروع "الميزانية الكبيرة الجميلة" (One Big Beautiful Bill Act- OBBBA) التي أقرها مجلس النواب الأميركي، والذي يمنع الولايات من تنظيم الذكاء الاصطناعي لمدة عقد كامل، مما يمنح حصانة قانونية غير مسبوقة لوادي السيليكون ويكرس هيمنة هذه "الإمبراطوريات".

تنتقد هاو هذا التطور بشدة، معتبرة أن هذه الشركات أصبحت المفترس الأعلى في النظام، وتتصرف وفق مصالحها فقط، وأن القانون يقنن هذا الوضع بالكامل.

إعلان

كل هذه المعطيات تظهر كيف أن الذكاء الاصطناعي لم يعد مجرد أداة تقنية، بل تحول إلى مشروع سياسي واقتصادي واجتماعي واسع النطاق، يشكل تهديدا مباشرا للديمقراطية والشفافية وحقوق العمال والبيئة.

وكما تكتب هاو: "إمبراطوريات الذكاء الاصطناعي لا تمارس نفس العنف الصريح والوحشية التي ميزت ذلك التاريخ. لكنها أيضا تستولي وتستخرج موارد ثمينة لخدمة رؤيتها للذكاء الاصطناعي: أعمال الفنانين والكتّاب، بيانات عدد لا يُحصى من الأفراد الذين ينشرون تجاربهم وملاحظاتهم على الإنترنت، الأرض والطاقة والمياه اللازمة لتشغيل مراكز البيانات الضخمة والحواسيبِ الفائقة".

إنه "عالم استعمار جديد" تُسلب فيه الموارد وتتجمع فيه السلطة بيد أقلية قليلة، كما تؤكد شهادات ميدانية من كينيا وتشيلي وأوروغواي في تحليل هاو الدقيق، الذي يضع سام ألتمان و"أوبن إيه آي" في قلب هذه الديناميات المعقدة، كحالة خاصة لا يمكن فصلها عن النظام الأكبر لوادي السيليكون والسياسة الأميركية.

بين وهج التفاؤل وظلال الواقع

لعل التفاؤل الذي يروج له سام ألتمان، أو "المتفائل" كما يصفه عنوان كتاب هاغي، ليس أكثر من قناع ناعم يخفي تناقضات عصر الذكاء الاصطناعي. فمن حلم بتمكين الإنسان، تحولت هذه التقنية إلى آلية متسارعة لتعميق القلق الوجودي، وتكريس فجوات الاستغلال والهيمنة.

بدلا من أن تبني جنة رقمية لتحرير البشر، تفتح هذه التكنولوجيا بوابات لسلطة رقمية مفرطة، تُسحق فيها كرامة الإنسان وموارد الكوكب باسم التقدّم. تُدار من قبل نخب ضيقة، ومعزولة، تتخذ قراراتها في غرف مغلقة، بينما ندفع نحن ثمن الابتكار أمننا وحريّتنا ومستقبلنا.

سام ألتمان بشخصيته المزدوجة التي تجمع بين الكاريزما والبراغماتية، ليس مجرد قائد تقني، بل رمز لمنظومة كاملة تعيد رسم حدود السلطة في العالم الرقمي. ومع اتساع الفجوة بين خطاب "المتفائل" وواقعنا القلق، يبرز سؤال حاسم: هل ما نعيشه هو تقدم حقيقي، أم وهم تقدّم يعاد تدويره لخدمة مصالح من يملكون مفاتيح الخوارزميات؟

إعلان

فما بين وهج "المتفائل" ونظرة الواقع القاسية، نجد أنفسنا أمام تحدّ أخلاقي واجتماعي كبير، يفرض علينا أن نعيد تعريف معنى التقدم الحقيقي، وأن نبحث جادين عن سبل تعيد لنا السيطرة على مستقبلنا الإنساني في زمن تهيمن عليه خوارزميات السلطة والربح.

لقد آن الأوان لنكفّ عن التصفيق الأوتوماتيكي لكلّ ما يسمى "ابتكارا"، وأن نستعيد النقاش الأخلاقي حول الإنسان، والعدالة، وحدود الهيمنة الرقمية.

مقالات مشابهة

  • سام ألتمان.. رأس الحربة في الذكاء الاصطناعي الإمبريالي
  • لا يعتمد على الإنترنت.. جهاز ملاحة روسي جديد مزود بالذكاء الاصطناعي للمكفوفين
  • من النفط إلى الذكاء الاصطناعي.. كيف تعيد دول الخليج تشكيل اقتصادها؟
  • شركة أمنية تعتمد نظام iGrafx المدعومة بالذكاء الاصطناعي
  • تطوير أول دمية باربي بالذكاء الاصطناعي
  • عصر حرب الطائرات الـمُـسَـيَّـرة بالذكاء الاصطناعي قادم
  • الكشف الطبي على 350 مواطنا ضمن القافلة الطبية لراعي مصر بقرية الحجاز
  • غوغل توف ر ميزة إنشاء بودكاست قائم على الذكاء الاصطناعي من نتائج بحث
  • غوغل تواجه اتهامات برقابة الإنترنت باستخدام الذكاء الاصطناعي