شفق نيوز/ يصبح من السهل وخاصة في اوقات الحروب انتشار بعض الصور المعدلة والتي تشوش صحة الخبر، سواء باستخدام برامج تعديل الصور أو عبر استخدام الذكاء الاصطناعي، كما حدث مؤخراً، إذ انتشرت صورة تبين عدد الضحايا الإسرائيليين والتي تبين فيما بعد أنها معدلة بالذكاء الاصطناعي.

وهناك عدة أساليب يمكن من خلالها التأكد من صحة الصور باستخدام وسائل سهلة مثل الهاتف، ومن بين هذه الوسائل هي:

محرك البحث تين أي tineye

حسب موقع "gijn" الأمريكي من خلال هذا المحرك يمكن التحقق مما إذا كانت الصورة حقيقية أم مفبركة، وذلك عبر مقارنة الصورة مع الصور التي نشرت قبل للتأكد مما كانت مفبركة أم حقيقية، للبحث على هذا الموقع اتبع هذه الخطوات:

احفظ أو قم بتنزيل الصورة التي تريد التحقق منها.

اضغط على الاستمرار في الصورة على شاشتك حتى ترى خياراً لحفظها. أو يمكنك نسخ عنوان الويب الخاص بالصورة التي تريد التحقق منها.

انتقل إلى www.tineye.com في متصفح هاتفك.

حدد "تحميل صورة" وابحث عن النسخة المحفوظة من الصورة في مستندات هاتفك أو معرض الصور أو الصق عنوان URL للصورة في شريط بحث TinEye.

حدد إحدى الصور التي تم إرجاعها ثم قم بالتبديل بين "صورتك" و"مطابقة الصورة". سترى بعد ذلك كيف تم تغيير الصورة.

استخدام محرك جوجل للتحقق من الصور

يتيح محرك البحث جوجل إمكانية التحقق من صحة الصور سواء باستخدام الهاتف أو عبر جهاز الكمبيوتر، إذ تتمكن من خلال اتباع بعض الخطوات من معرفة ما إذا كانت الصورة المنشورة حقيقية أو تم تعديلها لإظهار حقيقة أخرى:

للقيام بالتأكد من صحة الصورة عبر محرك البحث جوجل اتبع الخطوات التالية:

احفظ أو قم بتنزيل الصورة التي تريد التحقق منها. أو يمكنك نسخ عنوان الويب الخاص بالصورة التي تريد التحقق منها. (يجب أن يكون عنوان URL للصورة الفعلية، وليس لصفحة الويب بأكملها).

انتقل إلى موقع www.images.google.com.

شق طريقك إلى قائمة المتصفح، قم بالتمرير لأسفل وحدد "طلب موقع سطح المكتب". في جوجل كروم، يمكن العثور على القائمة بالضغط على النقاط الثلاث الموجودة أعلى يمين الشاشة. أما في iOS Safari، يوجد هذا الخيار في المنتصف أسفل الشاشة.

اضغط على أيقونة الكاميرا في شريط البحث.

بعد هذه الخطوة ستجد نفسك أمام خيارين:

لصق عنوان URL للصورة التي تريد التحقق منها في شريط البحث.

تحميل صورة من المكان الذي حفظتها فيه على هاتفك.

تحقق من النتائج لمعرفة متى وأين تم استخدام الصورة. إذا عدت بعيداً بما فيه الكفاية، فيجب أن تكون قادراً على العثور على المكان الذي تم استخدامه فيه في الأصل وربما صاحب حقوق الطبع والنشر للصورة.

استخدام كاشف الصور المزيفة

تتيح هذه الخاصية إمكانية التحقق العكسي والسريع من الصور بالإضافة إلى أنه يتيح التحقق من الملصقات أيضاً، من سلبيات هذه الخاصية أنها غير متوفرة على الأجهزة التي تعمل بنظام التشغيل IOS للتحقق من هذه الأخيرة باستخدام هذه الأداة يمكن اتباع الخطوات التالية:

قم بتنزيل وتثبيت تطبيق Fake Image Detector من متاجر تطبيقات Chrome أو Firefox.

افتح التطبيق وحدد أحد الخيارين: الاختيار من المعرض والذي يوفر هذا إمكانية الوصول إلى الأماكن التي يتم تخزين الصور فيها على هاتفك حتى تتمكن من إجراء بحث عكسي عن الصور، أو اختر من بين الصور الحديثة ثم حدد الصورة التي التقطتها لملصق أو صورة في مجلة أو صحيفة.

يسمح لك Fake Image Detector أيضاً بالتحقق من بيانات Exif الخاصة بالصورة. يمكن أن يشمل ذلك تاريخ ووقت التقاط الصورة، والموقع، وأحياناً نوع الكاميرا أو الهاتف الذي التقطها بالإضافة إلى اسم المالك.

التحقق مما إذا كانت الصورة مفبركة بالذكاء الاصطناعي

حسب موقع "factcheckhub" في ظل التطور التكنولوجي الأخير بدأت تنتشر العديد من الصور التي تمت فبركتها بالذكاء الاصطناعي والتي قد تؤثر في بعض الأحيان على مجريات الأحداث أو تقوم بالتضليل عن الحقيقة، إلا أن هناك بعض الطرق للتأكد مما إذا كانت هذه الصور تمت فبركتها أم لا.

من بين هذه الطرق نذكر:

بحث عكسي للصور: يتضمن ذلك استخدام محرك بحث، مثل Google أو TinEye، للبحث عن الصورة عبر الإنترنت. إذا كانت الصورة مزيفة أو تم التلاعب بها بطريقة أخرى، فقد لا تظهر في أي مكان آخر عبر الإنترنت، أو قد تظهر في أماكن متعددة بسياقات مختلفة. قد يقودك أيضاً إلى السياق الفعلي وراء الصورة.

تحليل البيانات الوصفية للصورة: غالباً ما تعرض الصور التي تم إنشاؤها بواسطة الذكاء الاصطناعي بيانات وصفية تختلف عن تلك التي يتم الحصول عليها من خلال الكاميرا أو أجهزة الهاتف الذكي.

تعد أدوات EXIF.tools وForensically من الأدوات التي يمكنها فحص البيانات الوصفية للصورة، يوفر فحص البيانات الوصفية نظرة ثاقبة حول ما إذا كانت الصورة قد تم إنشاؤها بواسطة الذكاء الاصطناعي أم لا. تنشأ مواقف محدودة عندما تكون البيانات الوصفية للصورة سليمة.

تحليل الأنماط: تعرض الصور التي يتم إنشاؤها بواسطة الذكاء الاصطناعي في كثير من الأحيان خصائص مميزة لا توجد عادة في الصور الطبيعية، من الممكن أن تتضمن هذه الخصائص المميزة أنماطاً متكررة أو تأثيرات ملحوظة مثل البكسل أو التشويش.

قد يؤدي تحليل هذه الأنماط إلى تمكين الشخص من التعرف بسهولة على الصور التي تم إنشاؤها بواسطة الذكاء الاصطناعي.

استخدام الذكاء الاصطناعي: يقوم بعض الباحثين بتطوير أدوات كشف الذكاء الاصطناعي التي يمكنها التحقق مما إذا كان قد تم إنشاء الصورة بواسطة الذكاء الاصطناعي. تستخدم هذه الأدوات خوارزميات التعلم الآلي لتحليل ميزات مختلفة للصورة، مثل أنماط الضوضاء وما إلى ذلك. وفي حين أن هذه الأدوات لا تزال قيد التطوير قد لا تكون دقيقة بنسبة 100%.

المصدر: شفق نيوز

كلمات دلالية: العراق هاكان فيدان تركيا محمد شياع السوداني انتخابات مجالس المحافظات بغداد ديالى نينوى ذي قار ميسان اقليم كوردستان السليمانية اربيل نيجيرفان بارزاني إقليم كوردستان العراق بغداد اربيل تركيا اسعار الدولار روسيا ايران يفغيني بريغوجين اوكرانيا امريكا كرة اليد كرة القدم المنتخب الاولمبي العراقي المنتخب العراقي بطولة الجمهورية خانقين البطاقة الوطنية مطالبات العراق بغداد ذي قار ديالى حادث سير مجلة فيلي عاشوراء شهر تموز مندلي التحقق من الصور من الصور مما إذا

إقرأ أيضاً:

احتيال شركات الذكاء الاصطناعي يجب أن يتوقف

مع تقدم الذكاء الاصطناعي وتغلغله في حياتنا على نحو متزايد، يبدو من الواضح أنه من غير المحتمل أن يخلق المدينة التكنولوجية الفاضلة ومن غير المرجح أن يتسبب في محو البشرية. النتيجة الأكثر احتمالا هي مكان ما في المنتصف ــ مستقبل يتشكل من خلال الطوارئ، والحلول الوسط، وعلى جانب عظيم من الأهمية، القرارات التي نتخذها الآن حول كيفية تقييد وتوجيه تطور الذكاء الاصطناعي.

باعتبارها الرائدة عالميا في مجال الذكاء الاصطناعي، تضطلع الولايات المتحدة بدور مهم بشكل خاص في تشكيل هذا المستقبل. لكن خطة عمل الذكاء الاصطناعي التي أعلن عنها الرئيس الأمريكي دونالد ترامب مؤخرا بددت الآمال في تعزيز الإشراف الفيدرالي، فاحتضنت بدلا من ذلك نهجا داعما للنمو في تطوير التكنولوجيا. وهذا يجعل التركيز من جانب حكومات الولايات، والمستثمرين، والجمهور الأمريكي على أداة مُـساءلة أقل إخضاعا للمناقشة، ألا وهي حوكمة الشركات ضرورة أشد إلحاحا. وكما توثق الصحفية كارين هاو في كتابها «إمبراطورية الذكاء الاصطناعي»، فإن الشركات الرائدة في هذا المجال منخرطة بالفعل في المراقبة الجماعية، وهي تستغل عمالها، وتتسبب في تفاقم تغير المناخ. من عجيب المفارقات هنا أن كثيرا منها شركات منفعة عامة (PBCs)، وهي بنية حوكمة يُزعم أنها مصممة لتجنب مثل هذه الانتهاكات وحماية البشرية. ولكن من الواضح أنها لا تعمل على النحو المنشود.

كانت هيكلة شركات الذكاء الاصطناعي على أنها شركات منفعة عامة شكلا ناجحا للغاية من أشكال الغسيل الأخلاقي. فبإرسال إشارات الفضيلة إلى الهيئات التنظيمية وعامة الناس، تخلق هذه الشركات قشرة من المساءلة تسمح لها بتجنب المزيد من الرقابة الجهازية على ممارساتها اليومية، والتي تظل مبهمة وربما ضارة. على سبيل المثال، تُـعَـد xAI التي يملكها إيلون ماسك شركة منفعة عامة تتمثل مهمتها المعلنة في «فهم الكون». لكن تصرفات الشركة ــ من بناء كمبيوتر خارق مُـلَـوِّث في السر بالقرب من حي تقطنه أغلبية من السود في ممفيس بولاية تينيسي، إلى إنشاء روبوت محادثة يشيد بهتلر ــ تُظهر قدرا مزعجا بشدة من عدم الاكتراث بالشفافية، والرقابة الأخلاقية، والمجتمعات المتضررة.

تُعد شركات المنفعة العامة أداة واعدة لتمكين الشركات من خدمة الصالح العام مع السعي إلى تحقيق الربح في الوقت ذاته. لكن هذا النموذج، في هيئته الحالية ــ خاصة في ظل قانون ولاية ديلاوير، الولاية التي تتخذها معظم الشركات العامة الأمريكية مقرا لها ــ مليء بالثغرات وأدوات الإنفاذ الضعيفة، وهو بالتالي عاجز عن توفير الحواجز اللازمة لحماية تطوير الذكاء الاصطناعي. لمنع النتائج الضارة، وتحسين الرقابة، وضمان حرص الشركات على دمج المصلحة العامة في مبادئها التشغيلية، يتعين على المشرعين على مستوى الولايات، والمستثمرين، وعامة الناس المطالبة بإعادة صياغة شركات المنفعة العامة وتعزيز قدراتها. من غير الممكن تقييم الشركات أو مساءلتها في غياب أهداف واضحة، ومحددة زمنيا، وقابلة للقياس الكمي. لنتأمل هنا كيف تعتمد شركات المنفعة العامة في قطاع الذكاء الاصطناعي على بيانات منافع شاملة وغير محددة يُزعَم أنها توجه العمليات. تعلن شركة OpenAI أن هدفها هو «ضمان أن يعود الذكاء الاصطناعي العام بالفضل على البشرية جمعاء»، بينما تهدف شركة Anthropic إلى «تحقيق أعظم قدر من النتائج الإيجابية لصالح البشرية في الأمد البعيد». المقصود من هذه الطموحات النبيلة الإلهام، لكن غموضها من الممكن أن يستخدم لتبرير أي مسار عمل تقريبا ــ بما في ذلك مسارات تعرض الصالح العام للخطر. لكن قانون ولاية ديلاوير لا يُـلزِم الشركات بتفعيل منفعتها العامة من خلال معايير قابلة للقياس أو تقييمات مستقلة. ورغم أنها تطالب بتقديم تقارير كل سنتين حول أداء المنفعة، فإنها لا تلزم الشركات بإعلان النتائج. بوسع الشركات أن تفي بالتزاماتها ــ أو تهملها ــ خلف الأبواب المغلقة، دون أن يدري عامة الناس شيئا. أما عن الإنفاذ، فبوسع المساهمين نظريا رفع دعوى قضائية إذا اعتقدوا أن مجلس الإدارة فشل في دعم مهمة الشركة في مجال المنفعة العامة. لكن هذا سبيل انتصاف أجوف، لأن الأضرار الناجمة عن الذكاء الاصطناعي تكون منتشرة، وطويلة الأجل، وخارجة عن إرادة المساهمين عادة. ولا يملك أصحاب المصلحة المتضررون ــ مثل المجتمعات المهمشة والمقاولين الذين يتقاضون أجورا زهيدة ــ أي سبل عملية للطعن في المحاكم. وللاضطلاع بدور حقيقي في حوكمة الذكاء الاصطناعي، يجب أن يكون نموذج «شركات المنفعة العامة» أكثر من مجرد درع للسمعة. وهذا يعني تغيير كيفية تعريف «المنفعة العامة»، وحوكمتها، وقياسها، وحمايتها بمرور الوقت. ونظرا لغياب الرقابة الفيدرالية، يجب أن يجري إصلاح هذا الهيكل على مستوى الولايات. يجب إجبار شركات المنفعة العامة على الالتزام بأهداف واضحة، وقابلة للقياس، ومحددة زمنيا، ومكتوبة في وثائقها الإدارية، ومدعومة بسياسات داخلية، ومربوطة بمراجعات الأداء والمكافآت والتقدم الوظيفي. بالنسبة لأي شركة عاملة في مجال الذكاء الاصطناعي، من الممكن أن تشمل هذه الأهداف ضمان سلامة نماذج المؤسسات، والحد من التحيز في مخرجات النماذج، وتقليل البصمة الكربونية الناجمة عن دورات التدريب والنشر، وتنفيذ ممارسات العمل العادلة، وتدريب المهندسين ومديري المنتجات على حقوق الإنسان والأخلاقيات والتصميم التشاركي. الأهداف المحددة بوضوح، وليس التطلعات الغامضة، هي التي ستساعد الشركات على بناء الأساس للمواءمة الداخلية الجديرة بالثقة والمساءلة الخارجية. يجب أيضا إعادة تصور مجالس الإدارة وعملية الإشراف. ينبغي لمجالس الإدارة أن تضم مديرين ذوي خبرة يمكن التحقق منها في أخلاقيات الذكاء الاصطناعي، والسلامة، والأثر الاجتماعي، والاستدامة. يجب أن يكون لكل شركة مسؤول أخلاقي رئيسي يتمتع بتفويض واضح، وسلطة مستقلة، والقدرة على الوصول المباشر إلى مجلس الإدارة. ينبغي لهؤلاء المسؤولين أن يشرفوا على عمليات المراجعة الأخلاقية وأن يُمنحوا سلطة وقف أو إعادة تشكيل خطط المنتجات عند الضرورة. وأخيرا، يجب أن تكون شركات الذكاء الاصطناعي المهيكلة كمؤسسات منفعة عامة مُلـزَمة بنشر تقارير سنوية مفصلة تتضمن بيانات كاملة ومصنفة تتعلق بالسلامة والأمن، والتحيز والإنصاف، والأثر الاجتماعي والبيئي، وحوكمة البيانات. وينبغي لعمليات تدقيق مستقلة ــ يديرها خبراء في الذكاء الاصطناعي، والأخلاقيات، والعلوم البيئية، وحقوق العمال ــ أن تعكف على تقييم صحة هذه البيانات، بالإضافة إلى ممارسات الحوكمة في الشركة وتواؤمها في عموم الأمر مع أهداف المنفعة العامة.

أكدت خطة عمل ترامب للذكاء الاصطناعي على عدم رغبة إدارته في تنظيم هذا القطاع السريع الحركة. ولكن حتى في غياب الإشراف الفيدرالي، بوسع المشرعين على مستوى الولايات، والمستثمرين، وعامة الناس تعزيز حوكمة إدارة الشركات للذكاء الاصطناعي بممارسة الضغوط من أجل إصلاح نموذج شركات المنفعة العامة. يبدو أن عددا متزايدا من قادة التكنولوجيا يعتقدون أن الأخلاقيات أمر اختياري. ويجب على الأمريكيين أن يثبتوا أنهم على خطأ، وإلا فإنهم يتركون التضليل، والتفاوت بين الناس، وإساءة استخدام العمالة، وقوة الشركات غير الخاضعة للرقابة تشكل مستقبل الذكاء الاصطناعي.

كريستوفر ماركيز أستاذ إدارة الأعمال في جامعة كامبريدج ومؤلف كتاب «المستغلون: كيف تقوم الشركات بخصخصة الأرباح وتأميم التكاليف»

خدمة «بروجيكت سنديكيت»

مقالات مشابهة

  • احتيال شركات الذكاء الاصطناعي يجب أن يتوقف
  • الفضيحة ليست في الصورة.. بل في غياب القانون
  • السباق الاستخباراتي على الذكاء الاصطناعي
  • 3 من أصل 5 حالات سرطان كبد يمكن الوقاية منها.. كيف ذلك؟
  • معضلة الذكاء الاصطناعي والمؤلف العلمي
  • Google Photos تستعد لإطلاق أداة جديدة لتحرير الصور باستخدام الذكاء الاصطناعي
  • Google تعزز أمان هواتف Android عبر ساعات Wear OS الذكية
  • حوارٌ مثيرٌ مع الذكاء الاصطناعي
  • ما المساعدات التي دخلت قطاع غزة؟ ومن المستفيد منها؟
  • هل تنفجر معدلات النمو الاقتصادي في زمن الذكاء الاصطناعي؟