دانشمندان درصدد بهرهگيري از موشها براي مقابله با ديپ فيك هستند
احتمالا تاكنون همهي شما دربرابر ديپفيك و عواقب خطرناك ناشي اين فناوري چيزهايي شنيدهايد؛ قابليتي خارقالعاده ازسوي يادگيري ماشين براي توليد فايلهاي ويدئويي و صوتي از افراد كه بهگونهاي طراحي شده است كه تا حد امكان طبيعي جلوه كند. در پي درك خطرات بالقوه ناشي از اين فناوري، بسياري از پژوهشگران در تلاش هستند تا بتوانند روشهايي بهتر را براي كشف صحت اصالت محصولات صوتي و تصويري بيابند.
هماينك در مؤسسهي علوم اعصاب دانشگاه اورگون، يكي از عجيبترين ايدهها براي مقابله با ديپفيك در حال مطالعه است. يك گروه پژوهشي در تلاش هستند به موشها يادگيري دهند تا بتوانند بينظميهاي موجود در يك سخنراني ديپفيك را تشخيص دهند؛ قابليتي كه بهانديشه متخصصين ميرسد حيوانات واقعا در آن تبحر ويژهاي دارند. اميد ميرود كه اين پژوهشها بتواند درنهايت بهياري رسانههايي نظير يوتيوب و فيسبوك بيايد تا بهكمك هم بتوان محتواي جعلي را پيش از فضاي الكترونيك شناسايي و پاكسازي كرد. البته بايد بدانيد كه شركتها واقعا نيازي ندارند براي تشخيص اين نوع محتواها، عملا موشها را بهاستخدام خود درآورند. جاناتان ساندرز، يكي از پژوهشگران پروژه ميگويد:
با اينكه بهانديشه متخصصين من، داشتن يك اتاق پر از موش براي تشخيص صداهاي جعلي، ايدهاي قابلستايش است؛ ولي من فكر ميكنم بنابر دلايل واضحي، عملي نخواهد بود. هدف ما اين است كه درسهاي لازم را درمورد نحوهي كار از اين حيوانات فراگيريم و سپس آن را در يك رايانه بهكار گيريم.
پژوهشگران اميدوار هستند موشها بتوانند بينظميهاي درون اصوات محتواي ديپفيك را بسيار بهتر از انسانها تشخيص دهند.
طبقهبندي به شيوهي موشها
ساندرز و تيمش به موشها يادگيري دادهاند تا بتوانند يك مجموعهي كوچك از اصوات را كه بهمنظور تشخيص يك واژه از واژههاي ديگر بهكار ميروند، درك كنند. او توضيح ميدهد:
ما به موشها يادگيري داديم تا بتوانند تفاوت ميان آواي «باه» (buh) و «گاه» (guh) را در ميان متون و حروف صدادار مختلف تشخيص دهند. آنها اكنون تفاوت ميان «بو»، «بيه» و «باه» را ميدانند؛ همان توانايي كه ما بهصورت طبيعي در اختيار داريم. و از آنجاكه آنها ميتوانند از پس مسئلهي واقعا پيچيدهاي مانند دستهبندي اصوات گوناگون برآيند، فكر ميكنيم ممكن است بتوان موشها را بهگونهاي يادگيري داد كه سخنراني واقعي و جعلي را نيز از يكديگر تشخيص دهند.
هر زمان كه موشها بتوانند يك صوت را بهدرستي تشخيص دهند، پاداش دريافت ميكنند؛ موضوعي كه بنابر تجربهي فعلي، در ۸۰ درصد از موارد مصداق دارد. البته اين روش هنوز كامل و بينقص نيستِ ولي استفادهاز آن، در كنار روشهاي فعلي براي تشخيص ديپفيك ميتواند اطلاعات ارزشمندي ارائه دهد.
اشتباهات و عدم اعتمادپذيري
بيشتر محتواهاي ديپفيك كه امروزه با آن مواجه هستيم، چندان واقعي طراحي نميشوند. اين محتواها بيشتر با هدف شوخي و استهزاء بهكار ميروند تا جعل هويت. نمونهاي از اين موارد مربوطبه ويدئوي ديپفيكي از مارك زاكربرگ است كه بيپرده درمورد دزديدن دادههاي متخصصان سخن ميگويد. اما اين باعث نميشود كه بگوييم در آينده هم قرار نيست كار به موضوع جعل هويت كشيده شود. اين تهديدها همين امسال نيز تبديل به يكي از موضوعات مهم در دو كنفرانس مهم دنياي هك (با نامهاي Black Hat و Def Con) شدهاند. متيو پرايس، از اعضاي شركت امنيت سايبري Zerofox ميگويد:
از انديشه متخصصينات هزينههاي پردازش ابري، يادگيري يك سيستم ديپفيك خوب، چيزي در حدود ۱۰۰ الي ۵۰۰ دلار هزينه در بردارد.
View this post on Instagram‘Imagine this...’ (2019) Mark Zuckerberg reveals the truth about Facebook and who really owns the future... see more @sheffdocfest VDR technology by @cannyai #spectreknows #privacy #democracy #surveillancecapitalism #dataism #deepfake #deepfakes #contemporaryartwork #digitalart #generativeart #newmediaart #codeart #markzuckerberg #artivism #contemporaryartA post shared by Bill Posters (@bill_posters_uk) on Jun 7, 2019 at 7:15am PDT
پرايس درمورد جديدترين روشهاي ساخت ديپفيك و همچنين آخرين فناوريها براي تشخيص آنها صحبت ميكند. او در خلال سخنراني خود، توضيح ميدهد كه چگونه ميتوان از الگوريتمها براي تشخيص حركات غيرطبيعي سر يا نورپردازي متناقض استفاده كرد. يكي از مداركي كه معمولا در ديپفيكهاي بدون كيفيت ديده ميشود، اين است كه اشخاص در آن معمولا پلك نميزنند.
يكي از مشخصههاي فعلي ديپفيكهاي بدون كيفيت اين است كه اشخاص در آن پلك نميزنند
اما اين روشها همگي براساس ضعفهاي فناوري فعلي يا اشتباهاتي بنا شدهاند كه سازندگان چنين ويدئوهايي مرتكب ميشوند. مسلما قرار نيست اين نوع اشكالات تا ابد وجود داشته باشند و بالاخره روزي فناوري راهي براي خلق بينقصترين ويدئوهاي جعلي خواهد يافت. پرايس ميگويد:
احتمالا در انتخابات سال ۲۰۲۰، با ديپفيكهاي فراواني مواجه خواهيم شد. اما من فكر ميكنم همانطور كه اين فناوري به پيشرفت خود ادامه ميدهد و كار براي تشخيص محتواي جعلي سخت و سختتر ميشود، احتمال ميرود كه متخصصد آن در عمليات نفوذ بهخصوص موضوع انتخابات بيشتر خواهد شد.
اين نگراني ازسوي گروهي از سياستمداران ردهبالاي آمريكايي مطرح شده است كه ديپفيك را بهعنوان موجي تازه از تلاشها در جهت اشاعهي اخبار غلط در ميان رايدهندگان آمريكايي ميبينند. ماركو رابيو، سناتور جمهوريخواه آمريكايي طي سخناني در اويل سال جاري ميلادي گفت:
دشمنان آمريكا پيشتر باكمك تصاوير جعلي تلاش كرده بودند بذر نارضايتي و تفرقه را در ميان ما بكارند. حال تصور كنيد كه با كمك ويدئو بتوانند برگههاي دزديدهشدهي آرا، هم انديشي ها غيراخلاقي رهبران سياسي و حتي كشتار مردم بيگناه را در جنگهاي خارجي جعل كنند.
جعلي اما بيارزش
در اين ميان كساني نيز هستند كه مي گويند درمورد تهديد ناشياز ديپفيك بيشاز حد اغراق شده است. بروس اشنير، متخصص امنيت سايبري از دانشكدهي هاروارد كندي بر اين باور است كه تلاشها پيرامون تشخيص ديپفيك كاملا از مسير اصلي خود خارج شده است. او ميگويد:
مسئله، كيفيت محتواي جعلي نيست؛ بلكه مسئله اين است كه ما به منابع خبري مشروع نيز اعتماد نداريم و همهچيز را تنها بهخاطر هويت اجتماعي بهاشتراك ميگذاريم.
سرعت پخش ويدئوي مربوطبه نانسي پلوسي ۲۵ درصد كاهش يافته بود.
اشنير به يك ويدئوي پريازديد درمورد يكي از اعضاي دموكرات كنگره بهنام نانسي پلوسي اشاره دارد كه در آن صداي او بهگونهاي تغيير يافته است كه به شنونده اين حس القا شود كه شخص سخنران احتمالا تحتتأثير مشروبات الكلي بوده است. با اينكه جعليبودن كليپ يادشده بهسرعت افشا شد، اما اين افشاگري اهميت چنداني نداشت. اين ويدئو بيش از يك ميليون بار ديده شد. اشنير ميگويد:
اين ويدئو نه يك ديپفيك، بلكه يك جعل كمارزش بود. تا وقتي كه مردم اين ويدئوها را نه از انديشه متخصصينات «واقعيبودن»؛ بلكه از انديشه متخصصينات «تطابق با جهانبيني خود» تماشا كنند، به انتشار و اشاعهي آن ادامه ميدهند. چراكه شخصيت آنها اينگونه است.
درواقع، يكي از انديشه متخصصيناتهاي پرطرفدار ميان متخصصان اين است كه درنهايت مباحثات پيرامون ديپفيك ممكن است از خود ديپفيك نيز آثار ويرانگرتري بهدنبال داشته باشد. شايد ترس ما از فناوري باعث شود كه روزي يك سياستمدار حتي هواداران خود را مجاب كند كه يك موضوع كاملا واقعي نيز چيزي بيش از يك ديپفيك نبوده است.
هم انديشي ها