انتشار ويدئو ديپ فيك از زاكربرگ، سياستهاي فيسبوك را به چالش كشيد
ماه گذشته، فيسبوك از حذف ويدئو دستكاريشدهي نانسي پلوسي، رئيس مجلس نمايندگان آمريكا، خودداري كرد؛ اما اين هفته اين شركت با اشكال جديدي مواجه شده است: فيسبوك با ويدئو جعلي مربوطبه مديرعامل خود چه خواهد كرد؟ ويدئو مزبور كه چند روز پيش در اينستاگرام، شبكهي اجتماعي تحت مالكيت فيسبوك، منتشر شد، فيلمي جعلي از مارك زاكربرگ را نشان ميدهد كه رو به دوربين ميگويد:
فقط يك لحظه فردي را تصور كنيد كه كنترل كامل بر اطلاعات بهسرقترفتهي ميلياردها انسان، اسرار، زندگي و آيندهي آنها دارد. من اين را مديون Spectre هستم. Spectre به من نشان داد كسي كه اطلاعات را كنترل ميكند، كنترل آينده را دراختيار دارد.
اين فيلم را دو هنرمند و يك شركت تبليغاتي با استفاده از ويدئو سخنراني زاكربرگ در سال ۲۰۱۷ و بهرهگيري از فناوري هوش مصنوعي ساختهاند. زاكربرگ در آن سخنراني، دربارهي دخالت روسها در انتخابات آمريكا سخن ميگفت. فناوري استفادهشده در اين كار كه به «جعل عميق» يا «فناوري ديپفيك» (Deepfake Technology) معروف شده است، چهرهي زاكربرگ را طوري دستكاري كرده كه گويي او مشغول گفتن جملاتي است كه در واقعيت به زبان نياورده است. بهجاي صداي زاكربرگ هم از صداي بازيگر در اين ويدئو استفاده شده است. در آن پست اينستاگرامي، توضيح داده شده كه اين فيلم با استفاده از فناوري جايگذاري مكالمات ويدئويي (VDR) شركت Canny AI توليد شده است.
اگر ارزياب مستقل تشخيص دهد ويدئو مزبور دروغ است، الگوريتمهاي اينستاگرام آن را به متخصصان پيشنهاد نخواهند كرد
اين فايل ويدئويي و فايلهاي مشابه آن كه چهرههاي مشهوري مانند كيم كارداشيان و دونالد ترامپ، رئيس جمهور آمريكا را هم بهتصوير كشيدهاند، بخشي از چيدماني هنري بهنام Spectre است كه از ۶ تا ۱۱ژوئن در فستيوال شفيلد در بريتانيا بهنمايش درآمد. اين ويدئو اثر مشترك دو هنرمند به نامهاي بيل پوسترز (Daniel Howe) و دنيل هاو (Bill Posters) و استارتاپي بهنام كاني (Canny AI) است كه با همكاري چند شركت ديگر بهطورهمزمان روي اين پروژه كار كردهاند و هدفشان نشاندادن ميزان اهميت فناوري در دستكاري اطلاعات بود.
در گذشته، فيسبوك قبول نكرد ويدئو دستكاريشدهاي را از صفحاتش حذف كند كه نانسي پلوسي را در حين سخنراني در حالتي نامتعادل نشان ميداد و با اعلام اينكه حتي تصاوير جعلي و دستكاريشده هم در سايت باقي ميمانند، تنها به اين بسنده كرد كه رتبهي ويدئو را كاهش دهد؛ يعني افراد كمتري آن را در بخش News Feed صفحهي فيسبوك خود مشاهده كنند. همچنين، ويدئو مربوطبه نتيجهي ارزيابيهاي متخصص كارشناسان مستقل راستيآزمايي نيز دركنار آن قرار گرفته بود.
نيل پاتس، مدير روابطعمومي فيسبوك، در نشستي پارلماني در كانادا در پاسخ به اين پرسش كه آيا با ويدئو دستكاريشدهي زاكربرگ هم مانند ويدئو نانسي پلوسي رفتار خواهد شد، گفته بود اگر ويدئوها مثل هم باشند، بازهم به همان صورت رفتار خواهد شد. يكي از سخنگويان اينستاگرام به CNN Business گفت: «با اين ويدئو همانطور رفتار خواهد شد كه با همهي اطلاعات نادرست در اينستاگرام رفتار ميكنيم». او در ادامه بيان كرد اگر ارزياب مستقل نيز ويدئو مزبور را دروغين تشخيص دهد، الگوريتمهاي سايت مشاهدهي آن را به متخصصان پيشنهاد نخواهند كرد؛ يعني از صفحهي Explore و جستوجوي هشتگها حذف خواهد شد.
شايد آنچه باعث بغرنجشدن شرايط براي فيسبوك و اينستاگرام شد، درخواست CBS از اين شركت براي حذف ويدئو بود كه روز سهشنبه مطرح شد. استارتاپ كاني كليپ واقعي بهكاررفته در ساختن ويدئو خود را از وبسايت خبري الكترونيك CBS News دانلود كرده است. يكي از سخنگويان اين شبكهي خبري به CNN Business گفت: «CBS از فيسبوك درخواست كرده اين ويدئو را حذف كند كه از CBSN استفادهي غيرمجاز كرده است».
چگونگي برخورد فيسبوك با آن ميتواند در آينده، به رويهاي در مديريت اينگونه موارد تبديل شود. ويدئو پلوسي ديپفيك نبود؛ بلكه فايل دستكاريشدهاي با استفاده از روشهاي مرسوم براي ويرايش فيلم بود. CNN Business از فيسبوك پرسيده آيا قوانين خاصي دربارهي ديپفيك وجود دارد؟
اين ويدئو كه خبر آن را Vice اولينبار منتشر كرد، كنگرهي ايالات متحده را طوري برانگيخت كه اعضاي آن خود را براي اولين جلسه دربارهي تهديدهاي بالقوهي ويدئوهاي ديپفيك آماده ميكنند. اوايل سال جاري، مدير اطلاعات ملي آمريكا (US National Intelligence) هشدار داد اين احتمال وجود دارد كه در آينده، دشمنان آمريكا با استفاده از فناوري ديپفيك، كمپينهايي براي انتشار اخبار نادرست راهاندازي كنند و كشور را هدف قرار بدهند.
تا همين اواخر، اينگونه شوخيها و دستانداختنهاي ويدئويي خيلي بهندرت اتفاق ميافتاد؛ چراكه ساختن آنها خيلي سختتر از ساختن ويدئوهايي با استفاده از عكسهاي غيرمتحرك است. باوجوداين، اكنون بهلطف افزايش بيرويهي GANها يا شبكههاي متخاصم فعال، توليد آنها شدت گرفته است. GANها از دادهها براي توليد محصولات جديد و از همين تكنيك براي توليد ديپفيكها استفاده ميكنند. عمر بنامي (Omer Ben-Ami) و جاناتن هيمن (Jonathan Heimann)، بنيانگذاران شركت كاني، ميگويند براي ساخت ويدئو مربوطبه زاكربرگ، صحنهاي كمتر از يك دقيقه را از صحبتهاي زاكربرگ انتخاب كردهاند و از الگوريتم براي تركيب آن با صداي بازيگر و حركات مناسب صورت استفاده كردند. ساختن نسخهي اوليهي آن تقريبا يك روز طول كشيد و دوسه ساعت هم زمان برد تا نسخهي نهايي آماده شود.
بهگفتهي بنامي، آنها براي ساختن ويدئو خود، از الگوريتمي اختصاصي استفاده كردند. مهندسان كاني ۲۱ ثانيه از ويدئويي هفتدقيقه اي را انتخاب كردند و الگوريتم خود را با استفاده از آن و نيز ويدئوهايي از صداپيشهي اين ويدئو يادگيري دادند كه درحالصحبت بود. سپس، فريمهاي داخل ويدئو واقعي زاكربرگ را طوري ساختند كه با حركات چهرهي صداپيشه مطابقت داشته باشد.
اگر كسي ويدئو را بدون صدا تماشا كند، نتيجهي حاصل كاملا واقعبينانه است. كاملا مشخص است صدايي كه روي ويدئو گذاشته شده، متعلق به زاكربرگ نيست؛ بلكه كسي تلاش ميكند اداي او را دربياورد. صرفانديشه متخصصين از اين موضوع، اين ديپفيك روندي يكپارچه دارد و حركات فردي كه در آن رو به دوربين نشسته، كاملا شبيه زاكربرگ است.
بهعقيدهي مديران كاني، اين ويدئو فرصتي براي يادگيري مردم دربارهي استفادههايي است كه امروزه از هوش مصنوعي انجام ميشود؛ اما بايد آينده را هم در انديشه متخصصين گرفت:
ظرفيت حقيقياي كه در اين فناوري شاهد هستيم، در تواناييهاي آن براي ايجاد مدلي واقعبينانه از بشر است. از انديشه متخصصينات ما، اين گام بعدي در تكامل ديجيتال است كه درنهايت، هركدام از ما ميتوانيم نسخهاي ديجيتال از خود داشته باشيم؛ انساني جهانشمول و جاودان. اين اتفاق و روش روايت داستانها و بهاشتراكگذاشتن آن با ديگران، بهيادآوردن عزيزانمان و توليد محتوا را تغيير خواهد داد.
هم انديشي ها