دانشمندان درصدد بهره‌گيري از موش‌ها براي مقابله با ديپ فيك هستند

چهارشنبه ۲۳ مرداد ۱۳۹۸ - ۱۱:۳۰
مطالعه 6 دقيقه
مرجع متخصصين ايران
دانشمندان مي‌‌گويند احتمالا ما هم‌اكنون نيز به يك سلاح بيولوژيكي جديد در برابر جريان اطلاعات‌‌رساني جعلي دسترسي داريم: موش‌‌ها.
تبليغات

احتمالا تاكنون همه‌ي شما دربرابر ديپ‌‌فيك و عواقب خطرناك ناشي اين فناوري چيزهايي شنيده‌‌ايد؛ قابليتي خارق‌‌العاده ازسوي يادگيري ماشين براي توليد فايل‌‌هاي ويدئويي و صوتي از افراد كه به‌‌گونه‌‌اي طراحي شده است كه تا حد امكان طبيعي جلوه كند. در پي درك خطرات بالقوه ناشي از اين فناوري‌‌، بسياري از پژوهشگران در تلاش هستند تا بتوانند روش‌‌هايي بهتر را براي كشف صحت اصالت محصولات صوتي و تصويري بيابند.

هم‌اينك در مؤسسه‌‌ي علوم اعصاب دانشگاه اورگون، يكي از عجيب‌‌ترين ايده‌‌ها براي مقابله با ديپ‌‌فيك در حال مطالعه است. يك گروه پژوهشي در تلاش هستند به موش‌‌ها يادگيري دهند تا بتوانند بي‌‌نظمي‌‌هاي موجود در يك سخنراني ديپ‌‌فيك را تشخيص دهند؛ قابليتي كه به‌‌انديشه متخصصين مي‌‌رسد حيوانات واقعا در آن تبحر ويژه‌‌اي دارند. اميد مي‌‌رود كه اين پژوهش‌‌ها بتواند درنهايت به‌‌ياري رسانه‌هايي نظير يوتيوب و فيسبوك بيايد تا به‌كمك هم بتوان محتواي جعلي را پيش از فضاي الكترونيك شناسايي و پاكسازي كرد. البته بايد بدانيد كه شركت‌‌ها واقعا نيازي ندارند براي تشخيص اين نوع محتواها، عملا موش‌‌ها را به‌‌استخدام خود درآورند. جاناتان ساندرز، يكي از پژوهشگران پروژه مي‌‌گويد:

با اينكه به‌‌انديشه متخصصين من، داشتن يك اتاق پر از موش براي تشخيص صداهاي جعلي، ايده‌‌اي قابل‌‌ستايش است؛ ولي من فكر مي‌‌كنم بنابر دلايل واضحي، عملي نخواهد بود. هدف ما اين است كه درس‌هاي لازم را درمورد نحوه‌‌ي كار از اين حيوانات فراگيريم و سپس آن را در يك رايانه به‌‌كار گيريم.
مرجع متخصصين ايران ديپ فيك / deep fake

پژوهشگران اميدوار هستند موش‌ها بتوانند بي‌نظمي‌هاي درون اصوات محتواي ديپ‌فيك را بسيار بهتر از انسان‌ها تشخيص دهند.

طبقه‌‌بندي به شيوه‌ي موش‌‌ها

ساندرز و تيمش به موش‌‌ها يادگيري داده‌‌اند تا بتوانند يك مجموعه‌‌ي كوچك از اصوات را كه به‌‌منظور تشخيص يك واژه از واژه‌‌هاي ديگر به‌‌كار مي‌‌روند، درك كنند. او توضيح مي‌‌دهد:

ما به موش‌‌ها يادگيري داديم تا بتوانند تفاوت ميان آواي «باه» (buh) و «گاه» (guh) را در ميان متون و حروف صدادار مختلف تشخيص دهند. آن‌‌ها اكنون تفاوت ميان «بو»، «بيه» و «باه» را مي‌‌دانند؛ همان توانايي كه ما به‌‌صورت طبيعي در اختيار داريم. و از آنجاكه آن‌‌ها مي‌‌توانند از پس مسئله‌‌ي واقعا پيچيده‌‌اي مانند دسته‌‌بندي اصوات گوناگون  برآيند، فكر مي‌‌كنيم ممكن است بتوان موش‌‌ها را به‌‌گونه‌‌اي يادگيري داد كه سخنراني واقعي و جعلي را نيز از يكديگر تشخيص دهند.

هر زمان كه موش‌‌ها بتوانند يك صوت را به‌‌درستي تشخيص دهند، پاداش دريافت مي‌‌كنند؛ موضوعي كه بنابر تجربه‌‌ي فعلي، در ۸۰ درصد از موارد مصداق دارد. البته اين روش هنوز كامل و بي‌نقص نيستِ ولي استفاده‌از آن، در كنار روش‌‌هاي فعلي براي تشخيص ديپ‌‌فيك مي‌‌تواند اطلاعات ارزشمندي ارائه دهد.

اشتباهات و عدم اعتمادپذيري

بيشتر محتواهاي ديپ‌‌فيك كه امروزه با آن مواجه هستيم، چندان واقعي طراحي نمي‌‌شوند. اين محتواها  بيشتر با هدف شوخي و استهزاء به‌‌كار مي‌‌روند تا جعل هويت. نمونه‌‌اي از اين موارد مربوط‌‌به ويدئوي ديپ‌‌فيكي از مارك زاكربرگ است كه بي‌‌پرده درمورد دزديدن داده‌‌هاي متخصصان سخن مي‌‌گويد. اما اين باعث نمي‌‌شود كه بگوييم در آينده هم قرار نيست كار به موضوع جعل هويت كشيده شود. اين تهديدها همين امسال نيز تبديل به يكي از موضوعات مهم در دو كنفرانس مهم دنياي هك (با نام‌‌هاي Black Hat و Def Con) ‌‌شده‌‌اند. متيو پرايس، از  اعضاي شركت امنيت سايبري Zerofox مي‌‌گويد:

از انديشه متخصصينات هزينه‌‌هاي پردازش ابري، يادگيري يك سيستم ديپ‌‌فيك خوب، چيزي در حدود ۱۰۰ الي ۵۰۰ دلار هزينه در بردارد.
View this post on Instagram‘Imagine this...’ (2019) Mark Zuckerberg reveals the truth about Facebook and who really owns the future... see more @sheffdocfest VDR technology by @cannyai #spectreknows #privacy #democracy #surveillancecapitalism #dataism #deepfake #deepfakes #contemporaryartwork #digitalart #generativeart #newmediaart #codeart #markzuckerberg #artivism #contemporaryartA post shared by Bill Posters (@bill_posters_uk) on Jun 7, 2019 at 7:15am PDT

پرايس درمورد جديدترين روش‌‌هاي ساخت ديپ‌‌فيك و همچنين آخرين فناوري‌‌ها براي تشخيص آن‌‌ها صحبت مي‌‌كند. او در خلال سخنراني خود، توضيح مي‌‌دهد كه چگونه مي‌‌توان از الگوريتم‌‌ها براي تشخيص حركات غيرطبيعي سر يا نورپردازي متناقض استفاده كرد. يكي از مداركي كه معمولا در ديپ‌‌فيك‌‌هاي بدون كيفيت ديده مي‌‌شود، اين است كه اشخاص در آن معمولا پلك نمي‌‌زنند.

يكي از مشخصه‌هاي فعلي ديپ‌‌فيك‌‌هاي بدون كيفيت اين است كه اشخاص در آن پلك نمي‌‌زنند

اما اين روش‌‌ها همگي براساس ضعف‌‌هاي فناوري فعلي يا اشتباهاتي بنا شده‌‌اند كه سازندگان چنين ويدئوهايي مرتكب مي‌‌شوند. مسلما قرار نيست اين نوع اشكالات تا ابد وجود داشته باشند و بالاخره روزي فناوري راهي براي خلق بي‌‌نقص‌‌ترين ويدئو‌‌هاي جعلي خواهد يافت. پرايس مي‌‌گويد:

احتمالا در انتخابات سال ۲۰۲۰، با ديپ‌‌فيك‌‌هاي فراواني مواجه خواهيم شد. اما من فكر مي‌‌كنم همان‌‌طور كه اين فناوري به پيشرفت خود ادامه مي‌‌دهد و كار براي تشخيص محتواي جعلي سخت و سخت‌‌تر مي‌‌شود، احتمال مي‌‌رود كه متخصصد آن در عمليات نفوذ به‌‌خصوص موضوع انتخابات بيشتر خواهد شد.

اين نگراني ازسوي گروهي از سياست‌‌مداران رده‌‌بالاي آمريكايي مطرح شده است كه ديپ‌‌فيك را به‌‌عنوان موجي تازه از تلاش‌‌‌ها در جهت اشاعه‌‌ي اخبار غلط در ميان راي‌‌دهندگان آمريكايي مي‌‌بينند. ماركو رابيو، سناتور جمهوري‌‌خواه آمريكايي طي سخناني در اويل سال جاري ميلادي گفت:

دشمنان آمريكا پيش‌‌تر باكمك تصاوير جعلي تلاش كرده بودند بذر نارضايتي و تفرقه را در ميان ما بكارند. حال تصور كنيد كه با كمك ويدئو بتوانند برگه‌‌هاي دزديده‌‌شده‌‌ي آرا، هم انديشي ها غيراخلاقي رهبران سياسي و حتي كشتار مردم بي‌‌گناه را در جنگ‌‌هاي خارجي جعل كنند.

جعلي اما بي‌‌ارزش

در اين ميان كساني نيز هستند كه مي گويند درمورد تهديد ناشي‌‌از ديپ‌‌فيك بيش‌‌از حد اغراق شده است. بروس اشنير، متخصص امنيت سايبري از دانشكده‌ي هاروارد كندي بر اين باور است كه تلاش‌‌ها پيرامون تشخيص ديپ‌‌فيك كاملا از مسير اصلي خود خارج شده است. او مي‌‌گويد:

مسئله، كيفيت محتواي جعلي نيست؛ بلكه مسئله اين است كه ما به منابع خبري مشروع نيز اعتماد نداريم و همه‌چيز را تنها به‌‌خاطر هويت اجتماعي به‌‌اشتراك مي‌‌گذاريم.
مرجع متخصصين ايران ديپ فيك / deep fake

سرعت پخش ويدئوي مربوط‌‌به نانسي پلوسي ۲۵ درصد كاهش يافته بود.

اشنير به يك ويدئوي پريازديد درمورد يكي از اعضاي دموكرات كنگره به‌‌نام نانسي پلوسي اشاره دارد كه در آن صداي او به‌‌گونه‌‌اي تغيير يافته است كه به شنونده اين حس القا شود كه شخص سخنران احتمالا تحت‌‌تأثير مشروبات الكلي بوده است. با اينكه جعلي‌‌بودن كليپ يادشده به‌‌سرعت افشا شد، اما اين افشاگري اهميت چنداني نداشت. اين ويدئو بيش از يك ميليون بار ديده شد. اشنير مي‌‌گويد:

اين ويدئو نه يك ديپ‌‌فيك، بلكه يك جعل كم‌‌ارزش بود. تا وقتي كه مردم اين ويدئوها را نه از انديشه متخصصينات «واقعي‌‌بودن»؛ بلكه از انديشه متخصصينات «تطابق با جهان‌‌بيني خود» تماشا كنند، به انتشار و اشاعه‌‌ي آن ادامه مي‌‌دهند. چراكه شخصيت آن‌‌ها اين‌‌گونه است.

درواقع، يكي از انديشه متخصصينات‌‌هاي پرطرفدار ميان متخصصان اين است كه درنهايت مباحثات پيرامون ديپ‌‌فيك ممكن است از خود ديپ‌‌فيك نيز آثار ويرانگرتري به‌‌دنبال داشته باشد. شايد ترس ما از فناوري باعث شود كه روزي يك سياستمدار حتي هواداران خود را مجاب كند كه يك موضوع كاملا واقعي نيز چيزي بيش از يك ديپ‌‌فيك نبوده است.

جديد‌ترين مطالب روز

هم انديشي ها

تبليغات

با چشم باز خريد كنيد
اخبار تخصصي، علمي، تكنولوژيكي، فناوري مرجع متخصصين ايران شما را براي انتخاب بهتر و خريد ارزان‌تر راهنمايي مي‌كند
ورود به بخش محصولات