استقر القلق المتزايد حول تقنيات التزييف العميق المتطورة التي تجعل من الممكن إنشاء دليل على مشاهد لم تحدث أبداً. وجد المشاهير أنفسهم بمقاطع فيديو تم تغيير محتواها، وظهر السياسيون في مقاطع فيديو يظهرون وهم يتكلمون بكلمات لم يقلوها أبداً.

أدت المخاوف بشأن تقنية التزييف العميق إلى انتشار الإجراءات المضادة. تهدف القوانين الجديدة إلى منع الناس من صنعها وتوزيعها. في وقت سابق من هذا العام، حظرت منصات التواصل الاجتماعي، بما في ذلك فيسبوك و تويتر، التزييف العميق من شبكاتها. وتعج مؤتمرات الرؤية والرسومات الحاسوبية بالعروض التقديمية التي تصف أساليب التصدي لها.

 

ما هو التزييف العميق؟

يمكن لتقنية الزيف العميق أن تدمج أي شخص في العالم في فيديو أو صورة لم يشاركوا فيها مطلقاً. هذه الإمكانيات موجودة منذ عقود – هكذا تم إحياء الممثل الراحل Paul Walker في Fast & Furious 7. ولكنه كان يأخذ استوديوهات كاملة بالكامل من الخبراء في السنة لخلق هذه التأثيرات. الآن، يمكن لتقنيات التزييف العميق – رسومات الكمبيوتر الآلية الجديدة أو أنظمة التعلم الآلي – توليف الصور ومقاطع الفيديو بسرعة أكبر.

ومع ذلك، هناك الكثير من الالتباس حول مصطلح “التزييف العميق”، ويتحد باحثو الرؤية الحاسوبية والرسومات في كراهيتهم للكلمة. لقد أصبح وصفًا شاملاً لكل شيء بدءاً من مقاطع الفيديو الحديثة التي تم إنشاؤها بواسطة الذكاء الاصطناعي إلى أي صورة قد تبدو احتيالية.

 

كيف يتم إنشاء التزييف العميق

المكون الرئيسي في تقنية التزييف العميق هو التعلم الآلي، مما جعل من الممكن إنتاج التزييف العميق بشكل أسرع بتكلفة أقل.
لإنشاء فيديو مزيف عميق لشخص ما، يقوم المنشئ أولاً بتدريب شبكة عصبية على عدة ساعات من لقطات فيديو حقيقية للشخص لمنحه “فهماً” واقعياً لما يبدو عليه من زوايا متعددة وتحت إضاءة مختلفة. ثم يقومون بدمج الشبكة المدربة مع تقنيات رسومات الكمبيوتر لتركيب نسخة من الشخص على ممثل مختلف.

في حين أن إضافة الذكاء الاصطناعي تجعل العملية أسرع مما كانت عليه من قبل، لا يزال الأمر يستغرق وقتاً حتى تسفر هذه العملية عن مركب معقول يضع الشخص في موقف خيالي تمامًا. يجب على المنشئ أيضاً أن يعدل يدوياً العديد من معلمات البرنامج المدرب لتجنب الإشارات الضوئية والتحف في الصورة. العملية بالكاد مباشرة.

 

يفترض الكثير من الناس أن فئة من خوارزميات التعلم العميق تسمى شبكات الخصومة التوليدية (GANs) ستكون المحرك الرئيسي لتطوير التزييف العميق في المستقبل. يكاد يكون من المستحيل التمييز بين الوجوه التي تم إنشاؤها بواسطة GAN من الوجوه الحقيقية. خصصت المراجعة الأولى لمنظر التزييف العميق قسماً كاملاً لشبكات GAN، مما يشير إلى أنها ستتيح لأي شخص إنشاء صور مزيفة معقدة.

ومع ذلك، فإن الأضواء على هذه التقنية بالذات كانت مضللة، كما يقول سيوي ليو من جامعة ولاية نيويورك بافالو. يقول: “يتم إنشاء معظم مقاطع الفيديو المزيفة العميقة هذه الأيام بواسطة خوارزميات لا تلعب فيها شبكات GAN دوراً بارزاً للغاية”.

يصعب العمل مع شبكات GAN وتتطلب قدراً هائلاً من بيانات التدريب. تستغرق النماذج وقتاً أطول في إنشاء الصور مقارنة بالتقنيات الأخرى. و — الأهم — تعد نماذج GAN جيدة لتركيب الصور، ولكن ليس لإنشاء مقاطع الفيديو. لديهم صعوبة في الحفاظ على التناسق الزمني، أو الحفاظ على نفس الصورة محاذاة من إطار إلى آخر.

لا تستخدم “التزييف العميق” الصوتي الأكثر شهرة شبكات GAN. عندما استخدمت شركة الذكاء الاصطناعي الكندية Dessa (المملوكة الآن لـ Square) صوت مضيف البرنامج الحواري Joe Rogan لنطق جمل لم يقلها أبداً، لم تكن شبكات GAN متورطة. في الواقع، نصيب الأسد من التزييف العميق اليوم مصنوع باستخدام كوكبة من الذكاء الاصطناعي وخوارزميات بخلاف الذكاء الاصطناعي.

 

من الذي ابتكر تقنية التزييف العميق؟

تميل أكثر أمثلة التزييف العميق إثارة للإعجاب إلى الخروج من مختبرات الجامعة والشركات الناشئة التي تزرعها: فيديو تم الإبلاغ عنه على نطاق واسع يظهر نجم كرة القدم ديفيد بيكهام وهو يتحدث بطلاقة بتسع لغات، يتحدث واحدة منها فقط، وهو نسخة من الكود تم تطويره في Technical جامعة ميونخ بألمانيا.

لكن هذه ليست المزيفات العميقة التي تثير قلق الحكومات والأكاديميين. لا يجب أن تكون تقنية التزييف العميق في المختبر أو ذات تقنية عالية حتى يكون لها تأثير مدمر على النسيج الاجتماعي، كما يتضح من التزييف العميق غير الحسّي والأشكال الأخرى المثيرة للمشاكل.

 

  • لماذا يشعر الجميع بالقلق الشديد؟

التكنولوجيا تتحسن دائماً. هذه هي الطريقة التي يعمل بها الأمر”، كما يقول هاني فريد، خبير الطب الشرعي الرقمي بجامعة كاليفورنيا، بيركلي. لا يوجد إجماع في المجتمع البحثي حول الوقت الذي سيتم فيه تحسين تقنيات “الأعمال اليدوية” بما يكفي لتشكل تهديدًا حقيقيًا – تختلف التوقعات بشكل كبير، من 2 إلى 10 سنوات. لكن في النهاية، يتفق الخبراء على أنه سيتمكن أي شخص من عرض تطبيق على هاتفه الذكي وإنتاج صور مزيفة واقعية لأي شخص آخر.

 

  • طريقة العمل

يأخذ هذا النظام مقطع فيديو مسجل للمتكلم من الجهة العليا للجسم، كذلك يأخذ النص وعدد التعديلات المطلوبة. يدعم هذا النظام ثلاثة أنواع من عمليات التعديل: – إضافة كلمات جديدة لمقطع الفيديو: يمكن إضافة كلمة أو أكثر في لحظة معينة من الفيديو. – إعادة ترتيب الكلمات في مقطع فيديو: يمكن إعادة ترتيب كلمة أو أكثر في مقطع الفيديو المراد ترتيبه. – حذف الكلمات من مقطع فيديو: يمكن إزالة أو حذف كلمة أو أكثر من مقطع الفيديو أيضاَ.

مخاوف التزييف العميق؟

تخشى الشركات من الدور الذي يمكن أن تلعبه تقنية التزييف العميق في عمليات الاحتيال فائقة الشحن. كانت هناك تقارير غير مؤكدة عن استخدام الصوت المزيف العميق في عمليات احتيال الرؤساء التنفيذيين لخداع الموظفين لإرسال الأموال إلى المحتالين. يمكن أن يصبح الابتزاز حالة استخدام كبيرة. كان الاحتيال في الهوية هو مصدر القلق الأكبر فيما يتعلق بالتزييف العميق لأكثر من ثلاثة أرباع المشاركين في استطلاع رأي حول صناعة الأمن السيبراني أجرته شركة القياسات الحيوية iProov.

بالنسبة للحكومات، فإن الخوف الأكبر هو أن التزييف العميق يشكل خطراُ على الديمقراطية. في عام 2018، ظهر رئيس الجابون، علي بونغو، الذي كان يُفترض أنه ليس على ما يرام منذ فترة طويلة، على شريط فيديو مشبوه لطمأنة السكان، مما أدى إلى محاولة انقلاب.

يشير الغموض حول هذه الحالات غير المؤكدة إلى الخطر الأكبر المتمثل في تقنية التزييف العميق، مهما كانت إمكانياتها الحالية: عائد الكاذب، وهي طريقة خيالية للقول إن وجود تقنية التزييف العميق يوفر غطاءً لأي شخص ليفعل أي شيء يريده، أي دليل على ارتكاب مخالفة باعتباره مزيفاً عميقاً.

تم النشر في: التزييف العميق، الزيف العميق