إنّ المحتوى الذي يُنشأ بواسطة الذكاء الصناعي آخذٌ في التوسع والازدياد، سواء في مجالات الفن أو الأدب أو الموسيقى أو التصوير الفوتوغرافي.
إذ يمكن لأي شخص لديه اتصال بالإنترنت والوصول إلى أداة تستخدم الذكاء الصناعي (AI) إنشاء صور تبدو واقعية في غضون ثوانٍ، ويمكنهم بعد ذلك نشرها على الشبكات الاجتماعية بسرعة فائقة.
فمَن منَّا لم يرَ صورة ترمب وهو مكبّل الأيدي ومقتَاد من عناصر الشرطة؟ أو صورة بوتين وهو يقبّل يد الرئيس الصيني؟ أو صورة بابا الفاتيكان وهو يرتدي بدلة رواد الفضاء؟
تلك الصور سابقة الذكر وغيرها، تُنشأ بواسطة ما يُطلق عليها "الموجِّهات النصية"، بمعنى إعطاء برنامج الذكاء الصناعي تعليمات نصّية لتقدّم أدوات إنتاج الصور مقترحات كثيرة.
وهناك الآلاف من تلك المواقع، لكنّ أبرزها:Midjourney، وDall-E، وStable Diffusion، التي تمتاز صورها بواقعية مخيفة ودقة مذهلة.
جرس الإنذار
مؤخراً، دقَّ الخبراء ناقوس الخطر، بعدما خدعت صورة لجنة التحكيم بمسابقة "سوني" العالمية للتصوير، وحازت الصورة المركز الأول، لولا أن اعترف الفنان الألماني بوريس إلداغسن بأنّ صورتهُ من إنتاج الذكاء الصناعي ورفض تسلم الجائزة.
وفي ذلك السياق، قال أنغس راسل، مؤسس موقع "نايت كافيْه" لإنشاء الصور باستخدام الذكاء الصناعي: "قبل خمس سنوات، كان الناس يقولون إنّ الذكاء الصناعي سيتولّى الوظائف الروتينية، لكنّ الأمور التي تتطلب الإبداع ستكون آمنة لفترة طويلة".
واستدرك قائلاً: "لكن اتضح عكس ذلك تماماً، قد تكون الوظائف الإبداعية والقائمة على المعرفة أول الأعمال التي يمكن استبدالها".
أما الأستاذ المشارك في شؤون قضايا الإبداع والابتكار في كلية الصحافة بجامعة "كارديف"، الدكتور ديفيد جيما، فأبدى إعجابه بالواقعية المفرطة لهذه الصور، قائلاً: "كل ما تتوقعه من مواصفات الصورة الجيدة موجود فيها".
وأشار جيما إلى أنّنا "دخلنا نوعاً ما إلى منطقة تسبق فيها التكنولوجيا أطر السياسات، وهذا يجعلنا في وضع محفوف بمخاطرٍ كبيرة".
ولإثبات تلك المخاوف، أجرت صوفي نايتينجيل، عالمة النفس بجامعة "لانكستر" في إنجلترا التي تركّز على التكنولوجيا الرقمية، دراسةً اختبرت ما إذا كان المستخدمون قادرين على التمييز بين الصور التي تُنشأ بواسطة نظام "AI" يُسمى "StyleGAN2" والصور الحقيقية، وحتى أواخر عام 2021 وجدت أنّ النتائج محبطة.
وأعادت نايتينجيل الاختبار بعد عامين مع إعطاء بعض المساعدة للمختبرين للطريقة التي قد يكتشفون بها زيف الصور، والنتيجة أنّ دقة المشتركين لم ترتفع سوى 10% فقط.
وقالت نايتينجيل: "نحن في مرحلة تكون الصور المولَّدة من الذكاء الصناعي واقعية للغاية، بحيث لا يمكن للناس أن يدركوا بشكلٍ موثوق الفرق بين تلك الوجوه الصناعية والوجوه الحقيقية".
لكن رغم نظرة التشاؤم تلك، فقد حدّد بعض الخبراء طرقاً تُعين المستخدم على الكشف عن الصور الناتجة من أدوات "AI"، وهي طريقتان: الأولى تعتمد على الحدس، والأخرى عبر برامج حاسوبية.
كيف تكتشف زيف الصور؟
هناك كثير من العلامات والإشارات التي تعتمد على تركيز المستخدم وقوة الحدس لديه، منها:
1- تكبير الصورة والنظر بعناية
يبدو كثير من الصور التي تُنشأ بواسطة "AI" حقيقية لأول وهلة، لهذا السبب فإنّ الاقتراح الأول هو النظر عن كثب إلى الصورة، قد يكشف تكبير الصورة عن التناقضات والأخطاء التي ربما لم تُكتشف من النظرة الأولى.
2- البحث عن مصدر الصورة
إذا لم تظهر أيٌّ من العلامات الواضحة من خلال تكبير الصورة، يُنصح بإجراء بحث عن الصور للوصول إلى المصدر الذي شاركها أولاً، من خلال أدوات مثل "Google Lens" و"TinEye" التي تؤدي عملاً رائعاً في المساعدة على ذلك، فبمجرد العثور على مكان ظهور الصورة لأول مرة يمكن بعد ذلك التحقق من المصدر، ومعرفة حقيقة الصورة، إمّا مما يذكرهُ الموقع الأصلي، وإما من خلال متابعة قراءة التعليقات أسفل الصورة.
3- أخطاء في صورة الوجه أو الجسم
رغم دقة البرامج المولِّدة للصور، فإن هناك بعض التفاصيل ما زالت عصيّة على الخوارزميات، منها شكل الأيدي.
غالباً ما تشوِّه الصور التي تُنشأ بواسطة الذكاء الصناعي أيدي الأشخاص، عن طريق إضافة الأصابع أو إزالتها أو لفّها بشكلٍ غير طبيعي، يمكن أن يساعدك هذا الخلّل في اكتشاف صورة مزيفة عندما تبدو أجزاء الجسم الأخرى واقعية.
وفي بعض الأحيان، تكون نسب الجسم بعضها إلى بعض غير متناسقة، حيث تكون الأيدي صغيرة جداً أو الأصابع طويلة أكثر من الحدّ، أو لا يتطابق الرأس والقدم مع باقي الجسم.
وكذلك أيضاً، صور الأسنان من المسائل الشائكة على الخوارزميات تعقيدها، مثلاً بعض الصور يُظهر وجوهاً فيها عدد كبير جداً من الأسنان.
بالإضافة إلى نعومة البشرة المبالغ فيها، أو الشعر غريب الهيئة والتكوين، هي من بعض العيوب التي تكشف أنّ الصور غير حقيقية.
4- النصوص والعلامات المائية وتشوهات الخلفية
ومن المؤشرات القيّمة الإضافية لتحديد الصورة التي تُنشأ بواسطة الذكاء الصناعي وجود علامة مائية.
وعلى سبيل المثال، يضع موقع "DALL-E 2" علامة مائية على كل صورة يجري تنزيلها من موقعه على الويب، رغم أنّها قد لا تكون ملحوظة على الفور.
كما يمكن أن تكون خلفية الصورة عاملاً كاشفاً في تحديد ما إذا كان قد جرى التلاعب بها، عندما تحتوي الصورة كثيراً من العناصر أو مشهداً مزدحماً، فقد تمتزج بعض الكائنات أو تتداخل مع أخرى.
وقد تظهر تشوّهات في الخلفية مثل مصابيح الشوارع المشوّهة. وخير مثال على ذلك، أظهرت صورة انفجار البنتاغون (صورة من توليد الذكاء الصناعي) التي انتشرت بسرعة، مبنىً غير موجود في الواقع.
ومن ذلك أيضاً، وجود النص في الصورة، والتي غالباً ما تظهر بشكل مشوّه في الصور، وهي حالياً نقطة الضعف الكبرى في منشئي صور الذكاء الصناعي، فالكلمات الكاملة في الخلفية دائماً ما تكون غير قابلة للقراءة.
الوسيلة الأنجع للكشف عن الصور
قد تكون التفاصيل والنقاط السابقة غير موجودة في الصور، بمعنى قد تكون الصورة واقعية للغاية، لذا يُعدّ اللجوء إلى البرامج الحاسوبية طريقة أفضل للكشف عن زيف الصور.
وهناك كثير من أجهزة الكشف عن النص بالذكاء الصناعي المتاحة مجاناً على الإنترنت، من بينها برنامج "AI Content Detector"، الذي يمكنه فحص أي جزءٍ من النص بحثاً عن علامات تدل على أنّه لم يكتبه إنسان، بنسبة دقة تبلغ 97.8 في المئة، حسب تصنيف "فوربس".
ولاكتشاف تزييف الصور والفيديوهات، تتعاون شركات مثل "فيسبوك" و"مايكروسوفت" في مشروع "Deepfake Detection"، حيث صدّر هذا المشروع بانتظام مجموعة من البيانات التي يمكن استخدامها لتدريب خوارزميات الكشف عن الفيديوهات والصور.
وخلال مؤتمر "Google I / O 2023"، كشفت "غوغل" النقاب عن الميزات القادمة المصممة لمساعدة المستخدمين على اكتشاف الصور المزيفة التي تُنشأ بواسطة الذكاء الصناعي داخل نتائج البحث.
وتهدف هذه الميزات إلى تحديد مصدر الصورة وتسمية الصور الأخرى التي تُنشأ بواسطة الذكاء الصناعي، وبالتالي مكافحة انتشار المعلومات المضللة.