لندن (ا ف ب) – أصبح الاحتيال بالذكاء الاصطناعي أحد أكبر المشاكل التي نواجهها على الإنترنت. أدى ظهور أدوات الذكاء الاصطناعي وإساءة استخدامها إلى انتشار الصور ومقاطع الفيديو والتسجيلات الصوتية الزائفة.
مع ظهور مقاطع الفيديو والصور التي يتم التلاعب بها بواسطة الذكاء الاصطناعي بشكل يومي تقريبًا، والتي تظهر الجميع بدءًا من تايلور سويفت وحتى دونالد ترامب، فمن الصعب التمييز بين ما هو حقيقي وما هو غير حقيقي. تسهل مولدات الفيديو والصور مثل DALL-E وMidjourney وSora من OpenAI على الأشخاص الذين ليس لديهم معرفة تقنية إنشاء صور غامرة: اكتب طلبًا وسيقوم الكمبيوتر بإنشائه.
قد تبدو هذه الصور المزيفة غير ضارة. ولكن يمكن استخدامها لتنفيذ عمليات الاحتيال وسرقة الهوية، أو التلاعب بالحملات الانتخابية والانتخابات.
إليك كيفية تجنب الانخداع بالتزييف العميق:
كيفية اكتشاف المحتوى المزيف العميق
في الأيام الأولى للتزييف العميق، كانت التكنولوجيا بعيدة عن الكمال، وغالبًا ما تركت علامات واضحة على التلاعب. وأشار المراجعون إلى صور بها أخطاء واضحة، مثل الأيدي بستة أصابع أو النظارات ذات العدسات المختلفة.
ولكن مع تحسن الذكاء الاصطناعي، أصبح من الصعب اكتشاف المنتجات المزيفة. وقال هنري أجتر، مؤسس شركة الاستشارات Latent Space Advisory، إن بعض النصائح المشتركة على نطاق واسع، مثل البحث عن أنماط وميض غير طبيعية لدى الأشخاص في مقاطع الفيديو المزيفة، لم تعد صالحة.
ومع ذلك، قال إن هناك بعض الأشياء التي يجب وضعها في الاعتبار.
وقال أجتر إن العديد من الصور العميقة التي تم إنشاؤها بواسطة الذكاء الاصطناعي، وخاصة للبشر، تحتوي على توهج إلكتروني، “نوع من تأثير التليين الجمالي”، مما يجعل البشرة تبدو “لامعة بشكل لا يصدق”.
ومع ذلك، فقد حذر من أن اللمسة الإبداعية في بعض الأحيان يمكن أن تقضي على هذا والعديد من العلامات الأخرى للتلاعب بالذكاء الاصطناعي.
التحقق من اتساق الظلال والأضواء. غالبًا ما يتم التركيز على الموضوع بشكل جيد ويبدو واقعيًا بشكل مقنع، لكن عناصر الخلفية ليست واقعية أو لامعة.
انظر إلى الوجوه
يعد تبديل الوجه أحد أكثر طرق التزييف العميق شيوعًا. وينصح الخبراء بالتركيز على حواف الوجه. هل يتناسب لون بشرة وجهك مع بقية رأسك أو جسمك؟ هل حواف الوجه حادة أم غير واضحة؟
إذا كنت تشك في أن مقطع فيديو لشخص يتحدث قد تم التلاعب به، فانظر إلى الفم. هل تتطابق حركات الشفاه مع الصوت بشكل صحيح؟
ينصح أجدر بالنظر إلى الأسنان. هل هي واضحة أم ضبابية، ولا تتطابق إلى حدٍ ما مع مظهرها في الحياة الواقعية؟
وتقول شركة نورتون للأمن السيبراني إن الخوارزميات ليست متطورة بما يكفي لإنشاء أسنان فردية، لذا فإن عدم وجود مخططات أسنان فردية قد يكون دليلاً.
فكر في السياق
في بعض الأحيان يكون السياق مهمًا. خذ وقتك للتفكير فيما إذا كان ما تراه ذا مصداقية.
يقترح موقع المجلة بوينتر أنه إذا رأيت شخصية عامة تفعل شيئًا “مبالغًا فيه، أو غير واقعي، أو خارج نطاق الشخصية”، فقد يكون ذلك مزيفًا للغاية.
على سبيل المثال، هل يرتدي البابا فرانسيس حقًا سترة مبطنة فاخرة، كما هو موضح في الصورة المزيفة الشهيرة؟ إذا كان الأمر كذلك، ألن يتم نشر المزيد من الصور أو مقاطع الفيديو من قبل مصادر مشروعة؟
استخدم الذكاء الاصطناعي لاكتشاف المحتوى المزيف
هناك نهج آخر يتمثل في استخدام الذكاء الاصطناعي لمكافحة الذكاء الاصطناعي.
قامت Microsoft بتطوير أداة مصادقة يمكنها أن تمنحك الثقة في أنه تم التلاعب بالصور أو مقاطع الفيديو. يستخدم FakeCatcher من شركة Intel لصناعة الدوائر المتكاملة خوارزميات لتحليل وحدات البكسل في الصورة لتحديد ما إذا كانت حقيقية أم مزيفة.
هناك أدوات على الإنترنت تعد باكتشاف المنتجات المزيفة إذا قمت بتحميل ملف أو لصق رابط لمحتوى مشبوه. لكن بعضها، مثل مصادقة Microsoft، متاح فقط لشركاء محددين، وليس لعامة الناس. وذلك لأن الباحثين لا يريدون منح المجرمين الكثير من المزايا من خلال تنبيههم إلى سباق التسلح العميق.
يقول أجدر إن الوصول المفتوح إلى أدوات الفحص يمكن أن يعطي الناس انطباعًا بأنها “تقنيات رائعة يمكن أن تجعلنا نفكر بشكل نقدي”، بينما في الواقع يجب أن نكون على دراية بحدودها.
العوائق التي تحول دون اكتشاف المحتوى المسيء
يتقدم الذكاء الاصطناعي بوتيرة مذهلة، ويتم تدريب نماذج الذكاء الاصطناعي باستخدام البيانات من الويب لإنتاج محتوى بجودة أعلى وحالات فشل أقل.
وهذا يعني أنه لا يوجد ضمان بأن هذه النصيحة ستكون صالحة لمدة عام آخر.
يقول الخبراء إن إلقاء المسؤولية على المواطنين العاديين ليصبحوا “شيرلوك” رقميين أمر خطير، لأنه يمكن أن يمنحهم أملا كاذبا، حيث يصبح اكتشاف التزييف العميق صعبا، حتى بالنسبة للعيون المدربة.