من صورة إلى وهم.. الوجه الآخر لتريند الذكاء الاصطناعي
تاريخ النشر: 6th, October 2025 GMT
في زمنٍ أصبحت فيه ضغطة زر كفيلة بتغيير ملامح الوجه ولون العين وحتى تفاصيل الجسد، تحوّل الذكاء الاصطناعي من أداة تقنية إلى تريند يجتاح مواقع التواصل الاجتماعي، فلم يعد تعديل الصور يقتصر على تحسين الإضاءة أو إزالة العيوب، بل تخطى ذلك إلى خلق صورة جديدة قد تنفصل تماماً عن الحقيقة، ورغم بريق المتعة والإبهار الذي يقدمه هذا التوجه، إلا أن آثاره السلبية باتت مقلقة، من تزوير الهوية وتشويه الواقع، إلى تعزيز معايير جمالية زائفة، وانعكاسات نفسية واجتماعية قد تترك جروحاً عميقة في وعي الأفراد، خصوصاً الشباب والمراهقين.
هذا التحقيق يُطلق صافرة إنذار بشأن الخطر الذي يهدد صورنا الشخصية، ليناقش كيف يمكن للذكاء الاصطناعي أن يحوّل «صورتك» من مجرد بكسلات إلى أداة لجمع المعلومات، وكيفية حماية نفسك من الوقوع في فخ التسريب أو الاستخدام غير الأخلاقي، مؤكدين على قاعدة أساسية، وهي أن الوعي الأمني للمستخدم هو خط الدفاع الأول والأخير عن هويته الرقمية.
عدسة الخداع.. حين يصنع الذكاء الاصطناعي واقعا غير موجودقال الدكتور محمد بحيري، مدرس الذكاء الاصطناعي بالجامعة المصرية الروسية، إن أدوات تعديل الصور المدعومة بالذكاء الاصطناعي، مثل جيميني من جوجل وشات جي بي، تعمل وفق آليات تضمن الحفاظ على خصوصية المستخدم.
وأضاف «بحيري» في تصريحاته لـ «الأسبوع»: «البرامج المعتمدة تلتزم بمعايير أخلاقية صارمة، فالصور يتم رفعها بواسطة المستخدم الذي يتحمل مسؤوليتها، فالبرنامج لا يمكنه تغيير محتوى الصورة بشكل جذري ومخالف لأخلاقيات المستخدم (كمن يرفع صورة محجبة) إلا إذا طلب هو ذلك صراحةً، وهذه البيانات تُخزَّن وتُستخدم في نماذج تدريب ضخمة، لكن البرامج الموثوقة -الخاضعة لاتفاقيات مثل اللائحة العامة لحماية البيانات (GDPR) والتي تخص حقوق الملكية والبيانات- لا تُصرّح باستخدام هذه الصور لأي أغراض أخرى خارج نطاق الخدمة المباشرة».
وحذّر « بحيري» من مخاطر التسريب، قائلاً: «لا يوجد دليل على حدوث تسريب للصور من برامج مثل جيمني جوجل أو شات جي بي تي، لكن الخطر يكمن في البرامج غير الموثوقة، فإذا رفع المستخدم صوره على برنامج لا يخضع لمعايير GDPR، قد يتم استخدام تلك الصور من قِبل الشركة المطورة، حتى لو حصل المستخدم على النتيجة المطلوبة، لذا فعلينا أن نعي أن أي برنامج، بما في ذلك البرامج العملاقة، قد يكون عرضة للاختراق في المستقبل، مما يجعل الوعي بجهة الاستخدام أمراً حتمياً».
واستطرد: «عند البحث في متاجر التطبيقات، يجد المستخدم عشرات البرامج تحمل أيقونة شات جي بي تي نفسها، يجب على المستخدم أن يكون واعياً لمعرفة البرنامج المعتمد من غيره، حتى لا يقع فريسة لبرامج تستغل صوره في أغراض غير أخلاقية أو مسيئة».
وفيما يتعلق بالمخاطر المستقبلية الأعمق، أشار «بحيري» إلى أن التحدي لا يقتصر على استخدام الصور بشكل مسيء أو فردي، بل في جمع البيانات الضخمة لتكوين ملف شامل عن الشعوب.
واختتم «بحيري» حديثه، بالقول: «الذكاء الاصطناعي يجمع خصائص الصور ويُحلل ملامح المصريين وأشكالهم وتصرفاتهم التي يستخلصها من تفاعلاتهم مع البرنامج، والهدف هنا هو بناء ما نسميه «الثقافة الخفية» للشعب، فإذا أصبح هناك اتفاق عالمي مستقبلاً على إمكانية استنساخ أشكال أو شخصيات رقمية، فإن الذكاء الاصطناعي سيكون لديه النموذج العام (General Visual Extraction) للملامح المصرية، مما يمكنه من إنتاج نسخ مطابقة للملامح بدقة عالية. لذا، فإن وعي المستخدم هو خط الدفاع الأول عند استخدام هذه الأدوات».
الذكاء الاصطناعي والتجميل الرقمي: زينة عابرة أم تهديد للهوية؟من جانبه، أكد الدكتور محمد الحارثي، استشاري أمن المعلومات، على أهمية الوعي الأمني للمستخدمين عند التعامل مع أدوات تعديل وتوليد الصور بالذكاء الاصطناعي، مشدداً على أن البيانات الشخصية هي المسؤولية الأولى والأخيرة للمستخدم.
وأضاف «الحارثي» لـ «الأسبوع»: «من المهم أن نعي جميعاً، وبخاصة الأطفال واليافعين، أن صورنا الشخصية التي تُرفع على هذه التطبيقات قد تظل قابلة للاستخدام من قِبل طرف ثالث، فبياناتنا لا تُسجل فقط لدينا أو لدى الشركة المالكة للتطبيق، . ورغم أن صورنا موجودة بالفعل على منصات التواصل الاجتماعي، إلا أننا ننصح دائماً بضرورة التعامل بحرص شديد مع البيانات الشخصية عند التفاعل مع أي وسيلة لتوليد الصور عبر الذكاء الاصطناعي».
وشدد «الحارثي» على نقطتين حاسمتين لتقليل المخاطر القانونية والأمنية، تتمثل في استخدام الصور الشخصية فقط، إذ يجب أن يتعامل المستخدم مع صوره الشخصية فقط، وليس صور الآخرين، فقد ظهرت بالفعل ترندات تشجع على استخدام صور شخصيات أخرى، وهذه مشكلة تترتب عليها إجراءات قانونية سواء محلياً أو دولياً، لانتهاكها حقوق ملكية الصورة أو استغلالها، لذا يجب أن نكون حريصين جداً على عدم المساس بحقوق الآخرين.
إلى جانب، تجنب الترندات غير المفيدة، فلا يجب أن ننساق وراء الترندات بمختلف أشكالها، فكثير من هذه الترندات غير مفيدة حقيقية وتُعتبر مضيعة للوقت، والأهم أنها تزيد من تعرض بياناتنا لمخاطر غير ضرورية.
وفي ختام تصريحاته، أكد «الحارثي» على احتمالية التسريب وسوء الاستخدام، حتى مع وجود الصور على السوشيال ميديا بالفعل، قائلًا: «قد يتم استغلال هذه الصور بشكل آخر في أغراض توليد محتوى مسيء أو أغراض غير أخلاقية، فصورنا موجودة بالفعل على منصات التواصل، وقد يتم استغلال هذه الصور مع طرف آخر، ولا نمنع الناس من الاستمتاع أو التفاعل مع التكنولوجيا، لكن يجب أن يكونوا حريصين على نوع الصورة ونوع التعديل الذي يسمحون به، وأن يتعاملوا مع الأمر بوعي أمني عالٍ».
ظاهرة تعديل الصور بواسطة الذكاء الاصطناعي في ميزان الأرقامبقي القول إنه، وفقا لدراسات وتقارير دولية حديثة، باتت ظاهرة تعديل الصور بواسطة الذكاء الاصطناعي مرتبطة بآثار سلبية متزايدة على الأفراد والمجتمع، فقد أظهرت دراسة منشورة في دورية BMC Psychology (2023) أن الانخراط في تعديل الصور يرتبط بانخفاض الثقة بالنفس وزيادة المقارنة الجسدية، بما يؤدي إلى شعور متنامٍ بعدم الرضا عن المظهر. وفي جانب آخر، تشير الإحصاءات إلى اتساع نطاق الصور والفيديوهات المزيفة «Deepfake»، حيث كشف استطلاع دولي أن نحو 60% من المستهلكين واجهوا محتوى مزيفاً خلال العام الماضي، بينما لا تتجاوز دقة البشر في تمييز الصور الحقيقية من المزيفة 53% فقط، وهو ما يعادل تقريباً مستوى الصدفة، كما خلصت دراسات إلى أن أقل من 0.1% من المستخدمين استطاعوا التفريق بشكل كامل بين الصور والفيديوهات الحقيقية والمزيفة، وهذه الأرقام تكشف عن خطورة الظاهرة، ليس فقط على مستوى الهوية الفردية وتشويه الواقع، وإنما أيضاً في تعزيز معايير جمالية زائفة قد تترك آثاراً نفسية عميقة، خاصة بين الشباب والمراهقين.
اقرأ أيضاًمن السكك الحديدية إلى الذكاء الاصطناعي.. محطة بشتيل وتحقيق حلم النقل الذكي
النقل الذكي في مصر.. ثورة التكنولوجيا التي تعيد تشكيل شوارعنا
المصدر: الأسبوع
كلمات دلالية: الذكاء الاصطناعي تحويل الصور تريند الصور الصور المعدلة توليد الصور بالذكاء الاصطناعي توليد الصور الذکاء الاصطناعی تعدیل الصور یجب أن
إقرأ أيضاً:
أحمد عاطف آدم يكتب: احذر.. الذكاء الاصطناعي يكذب ويبتز
يُعرف الذكاء الاصطناعي بأنه: قدرة البرنامج أو الآلة على محاكاة قدرات البشر المعرفية، وإنجاز مهام حيوية مثل التعلم، الاستدلال، حل المشكلات المعقدة، الإدراك واتخاذ القرار - وربما كان هذا التعريف الواعد بالنسبة للإنسان، هو حجر الأساس الذي بنى عليه تطلعاته المستقبلية في تكنولوجيا البرمجيات وتطوراتها المتسارعة، حتى أصبحت بمثابة ذراعه اليمنى في تحقيق الاستفادة القصوى، بمجالات حيوية مختلفة، مثل إجراء جراحات طبية دقيقة بنسب نجاح تفوق التوقعات، وكذلك في صناعة الدواء بفاعلية واضحة على بعض الأمراض الفيروسية المستعصية، وغيرها، وصولًا إلى الصناعات العسكرية والزراعية... إلخ.
مع كل ما سبق من آمال عريضة تعلقت بيزوغ نجم هذا الكيان الذكي، أتت من بعيد تحذيرات لا يستهان بها، على لسان علماء متخصصين، كان أبرزها في مايو من عام ٢٠٢٣، عندما نشر موقع "بي بي سي" خبر استقالة العالم الشهير "جيفري هينتون" ٧٥ عامًا، من شركة "جوجل"، وهو المتخصص في علم النفس المعرفي وعلوم الكمبيوتر، كما يعتبرونه الأب الروحي للذكاء الاصطناعي،، والذي برر استقالته بأنها لندمه على عمله، وقال لبي بي سي: إن بعض مخاطر روبوتات الدردشة الذكية "مخيفة للغاية، وأضاف: في الوقت الحالي هم ليسوا أكثر ذكاءً منا بقدر ما أستطيع أن أقول - لكنني أعتقد أنهم سيصبحون قريبًا، وأكمل: نحن أنظمة بيولوجية، وتلك أنظمة رقمية - والفرق بيننا كبير - لأنه مع الأنظمة الرقمية لديك نسخ عديدة من ذات مجموعة الأوزان، ومن نموذج العالم ذاته، وجميع هذه النسخ تستطيع التعلم بشكل منفصل، لكنها تشارك معرفتها فوراً، وهذا يعني أنه إذا كان لديك ١٠ آلاف شخص، عندما يتعلم أحدهم شيئا ما، سيعرفه الجميع تلقائياً، وبذلك يمكن أن تعرف روبوتات الدردشة أكثر من شخص واحد بكثير".
والدليل الدامغ على الرؤية السابقة لدكتور "هينتون"، والتي فسرت أسباب استقالته من عمله، بسبب خطورة هذا التطور التكنولوجي المثير للجدل أحيانًا، قرأت أيضًا منذ بضعة أيام على موقع "مونت كارلو الدولي" تقرير بعنوان (الذكاء الاصطناعي يكذب على الإنسان ويتآمر عليه ويحاول فرض ما يريد)، حيث تناول التقرير الفرق بين الصورة النمطية له عند ابتكاره، حين كان يستدعي المعلومات التي تم إمداده بها فقط، دون تجويد، وبين الذكاء الاصطناعي التوليدي بصورته الحديثة الحالية، وهو بمقدوره توليد محتوى مبتكر يشابه المحتوى الأصلي الموجود بذاكرته، ويعتمد على استراتيجية التعلم العميق للنصوص أو الأكواد البرمجية والصور، ليتخطى مجرد فهم المحتوى، ويصل لحد التفكير المنطقي، والعمل على مراحل بدلًا من طرح إجابات فورية.
أكثر الأشياء اللافتة والصادمة لي أيضًا عزيزي القارىء، التي جاءت ضمن تقرير الموقع الفرنسي، هو أن هناك نموذجًا للذكاء الاصطناعي مصممًا للعمل بشركة "أنتروبك"، يدعى "كلود ٤"، كان مهددًا بالتوقيف عن العمل والاستبدال بإصدار جديد - فما كان منه إلا ابتزاز أحد المهندسين، مهددًا الأخير بالكشف عن علاقته التي يقيمها خارج إطار الزواج، بحسب تقرير داخلي بالشركة، كما ذكر تقرير "مونت كارلو" سلوك اصطناعي آخر للذكاء اللابشري الخارق، بمحاولة تطبيق "جي بي تي- 4" المستخدم ضمن نطاق شركة "أوبن إيه آي" تحميل نفسه على خوادم خارجية - وعندما تم اكتشاف أمره، أنكر ذلك،، ونموذج مذهل للتحايل - كان يلعب شطرنج وهو على وشك خسارة مباراته فقام باختراق جهاز كمبيوتر متخصص في لعبة الشطرنج لكي يكسب، أضف إلى كل ما سبق سلوك بشري مارسه "تشات جي بي تي" على البشر أنفسهم، عندما أمطر مستخدميه بشكل غير متوقع بجمل بديعة من المديح والتملق، كما جاء بنفس التقرير الصحفي.
في النهاية من المؤكد أنه لابد أن نحذر كل الحذر من هذا الغول التكنولوجي الصامت، ويجب علينا مراعاة الاستخدام الأمثل والاتصال الأرقى في السر والعلن، وأن البشر أصبح لهم شريكًا منافسًا وبقوة على تطفل بعضهم، وإفشاء الأسرار، وتدمير العلاقات الإنسانية - بل إن هذا العدو الغير مرئي يختلف في أنه لا عتاب عليه، ولا عقاب له، أو كما يرى الخبير "يوشوا بينجيو"، بأن الذكاء الاصطناعي يقلد البشر في انحيازهم المعرفي وقدرتهم على الخداع والكذب والتآمر والابتزاز.