انتشار ويدئو ديپ فيك از زاكربرگ، سياست‌هاي فيسبوك را به چالش كشيد

چهارشنبه ۲۲ خرداد ۱۳۹۸ - ۲۲:۲۰
مطالعه 5 دقيقه
مرجع متخصصين ايران
ويدئويي جعلي از زاكربرگ در اينستاگرام منتشر شده كه حرف‌هايي درخورتأمل درباره‌ي قدرت فيسبوك به‌زبان آورده است. اين شركت در گذشته گفته بود چنين ويدئوهايي را از شبكه حذف نمي‌كند.
تبليغات

ماه گذشته، فيسبوك از حذف ويدئو دست‌كاري‌شده‌ي نانسي پلوسي، رئيس مجلس نمايندگان آمريكا، خودداري كرد؛ اما اين هفته اين شركت با اشكال جديدي مواجه شده است: فيسبوك با ويدئو جعلي مربوط‌به مديرعامل خود چه خواهد كرد؟ ويدئو مزبور كه چند روز پيش در اينستاگرام، شبكه‌ي اجتماعي تحت مالكيت فيسبوك، منتشر شد، فيلمي جعلي از مارك زاكربرگ را نشان مي‌دهد كه رو به دوربين مي‌گويد:

فقط يك لحظه فردي را تصور كنيد كه كنترل كامل بر اطلاعات به‌سرقت‌رفته‌ي ميلياردها انسان، اسرار، زندگي و آينده‌ي آن‌ها دارد. من اين را مديون Spectre هستم. Spectre به من نشان داد كسي كه اطلاعات را كنترل مي‌كند، كنترل آينده را دراختيار دارد.

اين فيلم را دو هنرمند و يك شركت تبليغاتي با استفاده از ويدئو سخنراني زاكربرگ در سال ۲۰۱۷ و بهره‌گيري از فناوري هوش مصنوعي ساخته‌اند. زاكربرگ در آن سخنراني، درباره‌ي دخالت روس‌ها در انتخابات آمريكا سخن مي‌گفت. فناوري استفاده‌شده در اين كار كه به «جعل عميق» يا «فناوري ديپ‌فيك» (Deepfake Technology) معروف شده است، چهره‌ي زاكربرگ را طوري دست‌كاري كرده كه گويي او مشغول گفتن جملاتي است كه در واقعيت به زبان نياورده است. به‌جاي صداي زاكربرگ هم از صداي بازيگر در اين ويدئو استفاده شده است. در آن پست اينستاگرامي، توضيح داده شده كه اين فيلم با استفاده از فناوري جاي‌گذاري مكالمات ويدئويي (VDR) شركت Canny AI توليد شده است.

اگر ارزياب مستقل تشخيص دهد ويدئو مزبور دروغ است، الگوريتم‌هاي اينستاگرام آن را به متخصصان پيشنهاد نخواهند كرد

اين فايل ويدئويي و فايل‌هاي مشابه آن كه چهره‌هاي مشهوري مانند كيم كارداشيان و دونالد ترامپ، رئيس جمهور آمريكا را هم به‌تصوير كشيده‌اند، بخشي از چيدماني هنري به‌نام Spectre است كه از ۶ تا ۱۱ژوئن در فستيوال شفيلد در بريتانيا به‌نمايش درآمد. اين ويدئو اثر مشترك دو هنرمند به نام‌هاي بيل پوسترز (Daniel Howe) و دنيل هاو (Bill Posters) و استارتاپي به‌نام كاني (Canny AI) است كه با همكاري چند شركت ديگر به‌طورهم‌زمان روي اين پروژه كار كرده‌اند و هدفشان نشان‌دادن ميزان اهميت فناوري در دست‌كاري اطلاعات بود.

در گذشته، فيسبوك قبول نكرد ويدئو دست‌كاري‌شده‌اي را از صفحاتش حذف كند كه نانسي پلوسي را در حين سخنراني در حالتي نامتعادل نشان مي‌داد و با اعلام اينكه حتي تصاوير جعلي و دست‌كاري‌شده هم در سايت باقي مي‌مانند، تنها به اين بسنده كرد كه رتبه‌ي ويدئو را كاهش دهد؛ يعني افراد كمتري آن را در بخش News Feed صفحه‌ي فيسبوك خود مشاهده كنند. همچنين، ويدئو مربوط‌به نتيجه‌ي ارزيابي‌هاي متخصص كارشناسان مستقل راستي‌آزمايي نيز دركنار آن قرار گرفته بود.

نيل پاتس، مدير روابط‌عمومي فيسبوك، در نشستي پارلماني در كانادا در پاسخ به اين پرسش كه آيا با ويدئو‌ دست‌كاري‌شده‌ي زاكربرگ هم مانند ويدئو نانسي پلوسي رفتار خواهد شد، گفته بود اگر ويدئوها مثل هم باشند، بازهم به همان صورت رفتار خواهد شد. يكي از سخن‌گويان اينستاگرام به CNN Business گفت: «با اين ويدئو همان‌طور رفتار خواهد شد كه با همه‌ي اطلاعات نادرست در اينستاگرام رفتار مي‌كنيم». او در ادامه بيان كرد اگر ارزياب مستقل نيز ويدئو مزبور را دروغين تشخيص دهد، الگوريتم‌هاي سايت مشاهده‌ي آن را به متخصصان پيشنهاد نخواهند كرد؛ يعني از صفحه‌ي Explore و جست‌وجوي هشتگ‌ها حذف خواهد شد.

شايد آنچه باعث بغرنج‌شدن شرايط براي فيسبوك و اينستاگرام شد، درخواست CBS از اين شركت براي حذف ويدئو بود كه روز سه‌شنبه مطرح شد. استارتاپ كاني كليپ واقعي به‌كاررفته در ساختن ويدئو خود را از وب‌سايت خبري الكترونيك CBS News دانلود كرده‌ است. يكي از سخن‌گويان اين شبكه‌ي خبري به CNN Business گفت: «CBS از فيسبوك درخواست كرده اين ويدئو را حذف كند كه از CBSN استفاده‌ي غيرمجاز كرده است».

چگونگي برخورد فيسبوك با آن مي‌تواند در آينده، به رويه‌اي در مديريت اين‌گونه موارد تبديل شود. ويدئو پلوسي ديپ‌فيك نبود؛ بلكه فايل دست‌كاري‌شده‌اي با استفاده از روش‌هاي مرسوم براي ويرايش فيلم بود. CNN Business از فيسبوك پرسيده آيا قوانين خاصي درباره‌ي ديپ‌فيك وجود دارد؟

مرجع متخصصين ايران ديپ فيك / deepfake

اين ويدئو كه خبر آن را Vice اولين‌بار منتشر كرد، كنگره‌ي ايالات متحده را طوري برانگيخت كه اعضاي آن خود را براي اولين جلسه درباره‌ي تهديدهاي بالقوه‌ي ويدئوهاي ديپ‌فيك آماده مي‌كنند. اوايل سال جاري، مدير اطلاعات ملي آمريكا (US National Intelligence) هشدار داد اين احتمال وجود دارد كه در آينده، دشمنان آمريكا با استفاده از فناوري ديپ‌فيك، كمپين‌هايي براي انتشار اخبار نادرست راه‌اندازي كنند و كشور را هدف قرار بدهند.

تا همين اواخر، اين‌گونه شوخي‌ها و دست‌انداختن‌هاي ويدئويي خيلي به‌ندرت اتفاق مي‌افتاد؛ چراكه ساختن آن‌ها خيلي سخت‌تر از ساختن ويدئوهايي با استفاده از عكس‌هاي غيرمتحرك است. باوجوداين، اكنون به‌لطف افزايش بي‌رويه‌ي GAN‌ها يا شبكه‌هاي متخاصم فعال، توليد آن‌ها شدت گرفته است. GANها از داده‌ها براي توليد محصولات جديد و از همين تكنيك براي توليد ديپ‌فيك‌ها استفاده مي‌كنند. عمر بن‌امي (Omer Ben-Ami) و جاناتن هيمن (Jonathan Heimann)، بنيان‌گذاران شركت كاني، مي‌گويند براي ساخت ويدئو مربوط‌به زاكربرگ، صحنه‌اي كمتر از يك دقيقه را از صحبت‌هاي زاكربرگ انتخاب كرده‌اند و از الگوريتم براي تركيب آن با صداي بازيگر و حركات مناسب صورت استفاده كردند. ساختن نسخه‌ي اوليه‌ي آن تقريبا يك روز طول كشيد و دوسه ساعت هم زمان برد تا نسخه‌ي نهايي آماده شود.

به‌گفته‌ي بن‌امي، آن‌ها براي ساختن ويدئو خود، از الگوريتمي اختصاصي استفاده كردند. مهندسان كاني ۲۱ ثانيه از ويدئويي هفت‌دقيقه اي را انتخاب كردند و الگوريتم خود را با استفاده از آن و نيز ويدئوهايي از صداپيشه‌ي اين ويدئو يادگيري دادند كه در‌حال‌صحبت بود. سپس، فريم‌هاي داخل ويدئو واقعي زاكربرگ را طوري ساختند كه با حركات چهره‌ي صداپيشه مطابقت داشته باشد.

اگر كسي ويدئو را بدون صدا تماشا كند، نتيجه‌ي حاصل كاملا واقع‌بينانه است. كاملا مشخص است صدايي كه روي ويدئو گذاشته شده، متعلق به زاكربرگ نيست؛ بلكه كسي تلاش مي‌كند اداي او را دربياورد. صرف‌انديشه متخصصين از اين موضوع، اين ديپ‌فيك روندي يكپارچه دارد و حركات فردي كه در آن رو به دوربين نشسته، كاملا شبيه زاكربرگ است.

به‌عقيده‌ي مديران كاني، اين ويدئو فرصتي براي يادگيري مردم درباره‌ي استفاده‌هايي است كه امروزه از هوش مصنوعي انجام مي‌شود؛ اما بايد آينده را هم در انديشه متخصصين گرفت:

ظرفيت حقيقي‌اي كه در اين فناوري شاهد هستيم، در توانايي‌هاي آن براي ايجاد مدلي واقع‌بينانه از بشر است. از انديشه متخصصينات ما، اين گام بعدي در تكامل ديجيتال است كه درنهايت، هركدام از ما مي‌توانيم نسخه‌اي ديجيتال از خود داشته باشيم؛ انساني جهان‌شمول و جاودان. اين اتفاق و روش روايت داستان‌ها و به‌اشتراك‌گذاشتن آن با ديگران، به‌يادآوردن عزيزانمان و توليد محتوا را تغيير خواهد داد.
تبليغات
جديد‌ترين مطالب روز

هم انديشي ها

تبليغات

با چشم باز خريد كنيد
اخبار تخصصي، علمي، تكنولوژيكي، فناوري مرجع متخصصين ايران شما را براي انتخاب بهتر و خريد ارزان‌تر راهنمايي مي‌كند
ورود به بخش محصولات