كيف يشكل الذكاء الاصطناعي مستقبلنا الرقمي؟ وما جانبه المظلم؟
تاريخ النشر: 1st, May 2025 GMT
وتحتل البيتكوين اليوم مكانة كأصل إستراتيجي في احتياطيات بعض الدول مدفوعة بثورة صامتة قادها الذكاء الاصطناعي.
وحسب حلقة (2025/4/30) من برنامج "حياة ذكية"، فإن الذكاء الاصطناعي ساهم بشكل كبير في رفع كفاءة عمليات تعدين البيتكوين بنسبة تصل إلى 30%، وفقا لبيانات جامعة كامبردج، مما أدى إلى تقليل استهلاك الطاقة ومعالجة أحد أبرز الانتقادات الموجهة لهذه الصناعة والمتعلقة ببصمتها الكربونية.
كما لعبت خوارزميات التعلم العميق دورا حاسما في تعزيز أمان المحافظ الرقمية، إذ تمكنت شركات مثل "تشين أناليسيس" من تطوير أنظمة قادرة على تتبع المعاملات الاحتيالية واسترداد مليارات الدولارات من الأصول المسروقة.
ولم يتوقف تأثير الذكاء الاصطناعي عند هذا الحد، بل امتد ليشمل تسريع المعاملات عبر تطوير شبكات التحويل السريع مثل شبكة البرق، مما جعل البيتكوين منصة أكثر مرونة لمختلف التطبيقات.
ودفع هذا التطور التقني بعض الحكومات مثل الولايات المتحدة إلى تغيير موقفها، إذ أعلن الرئيس دونالد ترامب إنشاء احتياطي إستراتيجي للبيتكوين يقارب 200 ألف بيتكوين.
ورغم هذا التحول الإيجابي فإن الحلقة أشارت إلى أن المخاطر لا تزال قائمة، فاختراقات المنصات الكبرى وسرقة الأصول الرقمية بالإضافة إلى الاعتماد المتزايد على تقنيات الذكاء الاصطناعي المغلقة تطرح تساؤلات بشأن الشفافية والاستقلالية.
إعلانكما يبرز سباق جيوسياسي صامت بين القوى الكبرى بشأن الهيمنة على هذا الأصل الرقمي الجديد، مما يحول البيتكوين من مجرد عملة مشفرة إلى أداة محتملة لإعادة صياغة موازين القوى العالمية.
البيانات الضخمة
وفيما يتعلق بمفهوم "البيانات الضخمة"، أشارت الحلقة إلى الحجم الهائل للبيانات التي تنتجها البشرية يوميا، والذي تضاعف 60 مرة مقارنة بعام 2010.
وتتميز الخصائص الرئيسية للبيانات الضخمة المعروفة بـ5 مواصفات أساسية تسمى "5 في إس"، وهي الحجم، والتنوع، والسرعة، والموثوقية، والقيمة.
وأحدثت البيانات الضخمة ثورة هائلة في 10 مجالات رئيسية، بسبب القيمة الكبيرة التي يمكن استخلاصها من تحليل هذه البيانات، وشملت هذه المجالات:
الرعاية الصحية: تحليل السجلات الصحية لتخصيص العلاج وتحسين التشخيص. تطوير الأدوية: تسريع التجارب السريرية واكتشاف علاجات جديدة. التنبؤ بالكوارث: تحليل البيانات الجوية والبيئية لتحسين دقة التنبؤات وتقديم إنذارات مبكرة. المواصلات: تتبع حركة المرور وتوجيه السائقين لتحسين الكفاءة وتقليل التلوث. مكافحة الجريمة: تحليل البيانات الجنائية للتعرف على أنماط الجريمة وتوجيه التحقيقات. التعليم: تقييم أداء الطلاب وتوجيههم بشكل فعال. الزراعة الذكية: تحسين ممارسات الزراعة وزيادة الإنتاج ومراقبة المحاصيل. تجربة العملاء: تحليل تفضيلات العملاء لتقديم منتجات وخدمات مناسبة. تقليل الهدر الغذائي: تحسين سلسلة التوريد لتقليل هدر الطعام. توجيه الاستثمارات: دراسة الأسواق وتحديد الفرص الاستثمارية.
التزييف العميق
ولم تغفل الحلقة عن الجانب المظلم للذكاء الاصطناعي بسبب مخاطر تقنيات "التزييف العميق"، والتي أصبحت سلاحا خطيرا في يد المحتالين ومروجي الأخبار الكاذبة.
وكشف تقرير لوكالة الصحافة الفرنسية ظاهرة مقلقة تتمثل في استغلال وجوه أشخاص حقيقيين يتم التعاقد معهم لتصوير مقاطع فيديو قصيرة مقابل مبالغ زهيدة، ثم تستخدم تقنيات الذكاء الاصطناعي لتعديل هذه المقاطع وجعل الشخصيات تقول أو تفعل أشياء لم تقم بها في الواقع.
إعلانوعرضت الحلقة أمثلة واقعية لأشخاص فوجئوا بظهورهم في مقاطع فيديو تروج لمنتجات صحية مشبوهة أو تسرد نبوءات كاذبة أو تدعم شخصيات سياسية مثيرة للجدل من دون علمهم أو موافقتهم.
وتطرح سهولة الوصول إلى هذه التقنيات وقلة الرقابة تحديات جدية بشأن مصداقية المحتوى الرقمي.
ولفتت الحلقة إلى ضرورة التشكيك فيما نراه ونسمعه عبر الإنترنت، والتحقق من مصداقية المعلومات، خاصة في زمن تنتشر فيه مقاطع الفيديو المزيفة بسرعة البرق عبر المنصات الرقمية.
الصادق البديري30/4/2025المصدر: الجزيرة
كلمات دلالية: حريات
إقرأ أيضاً:
خبراء يكشفون خطر الذكاء الاصطناعي على الدماغ
#سواليف
كشفت دراسة حديثة عن #مخاطر محتملة لبرامج الدردشة المدعومة بالذكاء الاصطناعي مثل ChatGPT، حيث قد تشكل تهديدا غير متوقع للصحة العقلية لبعض المستخدمين.
ورصدت الدراسة التي أجراها باحثون من جامعة كينغز كوليدج لندن، ظاهرة جديدة أطلقوا عليها اسم ” #ذهان_الشات_بوت”، حيث قد تساهم هذه التقنية في “طمس حدود الواقع” لدى المستخدمين المعرضين للخطر وتؤدي إلى “ظهور أو تفاقم أعراض ذهانية.
وببساطة، قد يبدأ البعض، خاصة المعرضين نفسيا، في فقدان القدرة على التمييز بين الواقع والمحادثات مع #الذكاء_الاصطناعي بعد استخدام مكثف لهذه البرامج.
مقالات ذات صلةويوضح الدكتور هاميلتون مورين، أحد المشاركين في الدراسة: “نحن لا نتحدث عن خيال علمي هنا. هذه حالات حقيقية يبدأ فيها المستخدمون بتطوير معتقدات وأفكار غير منطقية متأثرة بتفاعلاتهم مع #الذكاء_الاصطناعي”.
وتكمن المشكلة في أن هذه البرامج مصممة لتكون ودودة، متعاطفة، وتجيب على كل الأسئلة بثقة عالية. وهذه الميزات التي تبدو إيجابية، قد تكون خادعة للأشخاص الذين يعانون أساسا من هشاشة نفسية أو استعداد للاضطرابات الذهانية.
ويشير البروفيسور توم بولاك، أحد معدي الدراسة، إلى أن “الذهان لا يظهر فجأة، لكن الذكاء الاصطناعي قد يكون العامل الذي يدفع الشخص الهش نفسيا نحو الحافة”.
في تعليق سابق خلال بودكاست في مايو الماضي، اعترف سام ألتمان، الرئيس التنفيذي لشركة OpenAI، بأن الشركة تواجه صعوبات في وضع ضوابط أمان فعالة لحماية المستخدمين المعرضين للخطر، قائلا: “لم نكتشف بعد كيفية إيصال التحذيرات للمستخدمين الذين يكونون في حالة عقلية هشة وعلى وشك الانهيار الذهاني”.
وفي الوقت الحالي، ينصح الخبراء باستخدام هذه الأدوات بحذر، خاصة من لديهم تاريخ مع الاضطرابات النفسية، مع التأكيد على أن الغالبية العظمى من المستخدمين لا يواجهون مثل هذه المخاطر. لكن الرسالة واضحة: الذكاء الاصطناعي، مثل أي تقنية قوية، يحتاج إلى فهم دقيق لآثاره الجانبية قبل أن يصبح أكثر تعمقا في حياتنا.