نگاهي به استفاده يوتيوب از هوش مصنوعي براي متعادلسازي ويديوهاي نامناسب
بر كسي پوشيده نيست كه يوتيوب در سال گذشتهي ميلادي قصد متعادل كردن ويديوهاي پلتفرمش را داشت. بارها شايع شد كه شركت يوتيوب نميتواند از پس محتواي نامناسب بربيايد؛ مخصوصا درقبال ويديوهايي كه هدفشان كودكان بودند. كاركنان يوتيوب بهطور مستقيم مسئوليت از بين بردن و جلوگيري از آپلود ويديوهاي با مضامين جنسي و خشونتآميز را بر عهده گرفتند. همچنين پيمانكاران از هوش مصنوعي براي شناسايي محتواي نامناسب استفاده كردند. با اين حال شايد ارائهي كاركرد ترك مكانيكي، بتواند عملكرد ابزار يادگيري ماشيني يوتيوب را در سطوح اوليه به ما نشان دهد.
ترك مكانيكي (امترك) يا مكانيكال ترك، يك بازار زيرمجموعهي آمازون است كه در آن نهادها و پژوهشگران آكادميك، براي اجرا و انجام خدمات كوچك به نام وظايف هوش انساني (HIT) به پيمانكاران و كاركنان پول پرداخت ميكنند. هزينه معمولا كمتر از ۱ دلار است. كاركنان امترك با تكميل وظايفي همچون شناسايي اشياء يك تصوير، نوشتن درمورد يك فايل صوتي يا كمك به يادگيري يك الگوريتم، به عملكرد بهتر اينترنت كمك ميكنند.
كاركنان امترك بهطور مستقيم درمورد متعادل كردن محتويات تصميمگيري نميكنند؛ ولي بهطور روتين به يادگيري ابزار يادگيري ماشيني يوتيوب در تمامي راهها كمك ميكنند. ابزار يادگيري ماشيني، كاري فراتر از يافتن ويديوهاي نامناسب انجام ميدهد. كاركنان همچنين به ساير بخشهاي سيستم يوتيوب مانند الگوريتم توصيهگر (پيشنهادي) كمك ميكنند.
راشل لاپلانت، يكي از كاركنان امترك كه اطلاعاتش را با پايگاه خبري وايرد به اشتراك گذاشت، ميگويد:
يوتيوب و گوگل سالها است كه وظايفي بر عهدهي ترك مكانيكي گذاشتهاند. وظايف طيف بسيار متنوعي دارند؛ از جمله تگ كردن نوع محتوا، جستجوي محتويات مربوطبه بزرگسالان، مشخص كردن محتوياتي كه بوي تئوري توطئه ميدهند، مشخص كردن اينكه آيا عناوين مناسب هستند يا خير و شناسايي اينكه آيا ويديو از حساب متخصصي ويوو است يا خير.
طبق گفتهي لاپلانت، وظايف آنها اغلب اوقات تغيير ميكند. مثلا گاهي اوقات وظايف آنها بهطور مستقيم مربوط به شناسايي محتواي توهينآميز است؛ البته كار آنها بعضي اوقات تنها در تعيين مناسب بودن ويديو براي مخاطب خاص مثلا كودكان خلاصه ميشود. او گفت:
برخي از كاركنان، اين عمل را براي تصميمگيري در مورد پولي شدن يا نشدن يك كانال در انديشه متخصصين ميگيرند.
تماشا كنيد و ياد بگيريد
وظيفهي متعادل كردن محتواي خاصي (كه لاپلانت در ۱۴ مارس بهازاي ۱۰ سنت آنها را انجام داد) كه با پايگاه وايرد به اشتراك گذاشته شد، كاملا يك هدف واضح داشت. البته جاهايي وجود دارد كه ابهاماتي در اذهان كاركنان به وجود ميآورد. كار پيشنهادي در مورد پنجرهاي در يك فرآيند غير قابل ديدن است: از يك تفسير انساني درمورد ويديو چگونه ميتوان براي كمك كردن به ساخت الگوريتم يادگيري ماشيني استفاده كرد؟ حتي الگوريتمهاي يادگيري ماشيني داخل خود يوتيوب هم تنها ويديوها را علامت ميزنند و مشخص كردن اينكه چه موردي دستورالعملها و قوانين جامعهي يوتيوب را خدشهدار ميكند، يك وظيفهي انساني است.
ابزار يادگيري ماشيني كه كاركنان به يادگيري ديدن آنها كمك ميكنند، كاري فراتراز يافتن ويديوهاي نامناسب انجام ميدهند
HTI از كاركنان امترك تماشاي يك ويديو را ميخواهد. بعد از تماشاي ويديو توسط كاركنان، آنها بايد به سؤالاتي درمورد آن ويديو، بهصورت پر كردن گزينهها جواب دهند. HTI همچنين از كاركنان ميخواهد بهعنوان و توضيح و توصيف ويديو توجه كنند. كاركنان بايد مقداري از ويديو را تماشا كنند تا بتوانند در قضاوتشان پيرامون در مورد مطمئن باشند. HTI تماشاي ويديو با سرعت ۱.۵ برابر را به كاركنان پيشنهاد ميكند تا اين روند را سريعتر انجام دهند. سؤالات پرسيدهشده از كاركنان مواردي از قبيل زبان ويديو (خشن و بيادب) و ديالوگ بزرگسالان (توهينآميز يا مباحثهبرانگيز) را شامل ميشود.
بخشي از HTI خواستار تشخيص تفاوت بين تصاوير (واقعي يا ساختگي) مصرف مواد مخدر و همچنين استفادهي تصادفي يا طنزآميز از داروهاي معمولي است. اين وظيفه فهرستي از داروهاي مخرب يا غير مخرب ندارد و تنها هروئين را جزو داروهاي مخرب بهحساب ميآورد. در آخر كاركنان بايد دربارهي اينكه آيا ويديو مناسب كودكان است يا خير، قضاوت كنند.
كاركنان براي اينكه حقوقشان با حقوق كار فدرال (۷.۲۵ دلار در ساعت) برابري كند، بايد در هر ساعت ۷۲.۵ وظيفهي محوله را انجام دهند. بهعبارت ديگر آنها بايد وظايفشان را بسيار سريع انجام دهند تا به حقوق كار معمولي برسند. با اينكه برخي از سؤالات پرسيدهشده ازطرف يوتيوب بسيار سرراست و راحت هستند (مثلا آيا در اين فايل صوتي، آواز خواندن وجود دارد؟)، اكثر آنها كمي پيچيدگي دارند و كار يادگيري هوش مصنوعي را سخت ميكنند. يك ويديوي ساده از گربه، كاركنان را دچار اشكال نميكند؛ ولي تشخيص سخنان پيچيدهي سياسي درمورد مسائلي مثل سقط جنين واقعا كار سخت و پيچيدهاي است.
هدف دقيق وظيفه و مسئوليتهاي خاص لاپلانت مشخص نيست و ميتواند تنها متعادل كردن محتوا يا ساير موازين باشد و يوتيوب هم از انديشه متخصصين دادن درمورد چنين وظيفهي خاصي امتناع ميكند. لينك ويديوي مشمول مسئوليت، به صفحهاي غير قابل دسترس ختم ميشود. ويديو كه در فاصله زماني سپتامبر ۲۰۱۶ تا مارس ۲۰۱۸، توسط ماشين بايگاني ويبك ۵۶ بار ضبط شده است، طبق اسكرينشاتهاي اوليه، اصلا وجود ندارد. لاپلانت هم اصلا آن كليپ را به ياد نميآورد. او ميگويد:
هيچ ويديوي خاصي را به ياد ندارم؛ ولي به انديشه متخصصين ميرسد آپلودهاي افراد مختلف، كليپهايي از تلويزيون يا سينما و فيلم، تبليغات و بازيهاي ويديويي بخشهايي از اين ويديو را تشكيل ميدهند. ويديو داراي يك ژانر يا نوع خاص نبود.
ياوران انساني
يوتيوب در ماه دسامبر سال گذشته ميلادي متعهد به افزايش نيروي كار متعادلكننده به ۱۰ هزار نفر در سال ۲۰۱۸ شد. كاركنان امترك جزو ۱۰ هزار نفر محسوب نميشدند؛ چون كار آنها متعادل كردن نبود، بلكه كمك به يادگيري هوش مصنوعي براي انجام چنين فرآيندهايي درآينده بود. لاپلانت ميگويد:
من انتظار دارم حتي اگر يوتيوب تنها براي يادگيري الگوريتمهاي يادگيري ماشيني از كاركنان امترك استفاده كند، برخي از اين يادگيريها صرف يادگيري الگوريتمها براي كمتر كردن دخالت انساني بشود. بنابراين اگر احتمالا ما متعادلسازي محتواي زنده را روي امترك انجام ندهيم، هنوز ميتوانيم با يادگيري سيستمهاي اتوماتيك متعادلسازي محتوا، در چنين كاري سهيم باشيم.
سارا تي.رابرت، پژوهشگر درزمينهي متعادلسازي محتوا در دانشگاه كاليفرنيا، استفادهي پلتفرمهايي مثل يوتيوب از سايتهاي كاري كوچك همانند ترك مكانيكي براي تكميل فعاليتهاي ثانويه و بلندمدت مثل يادگيري الگوريتمها را امري رايج ميداند.
... شكي در اين مسئله نيست و افرادي مثل لاپلانت و ديگران كه تجارب طولانيمدت كار روي سايتهاي كاري كوچك را دارند، توجه ويژهاي به چنين مواردي دارند.
يوتيوب نياز مبرمي به ابزار هوش مصنوعي تحت يادگيري لاپلانت و ساير كاركنان امترك دارد؛ چراكه درچند ماه گذشته چندين بار در كنترل و بازرسي محتواي خود با شكست روبرو شده است. يوتيوب در سال جاري با اشكال آپلود ويديوي خودكشي يك فرد توسط يكي از افراد مشهور، روبرو شد. انتقادات زيادي از اين ماجرا گريبانگير يوتيوب شد؛ تا اينكه خود شخص آن ويديو را پاك كرد. انتقادات از يوتيوب به دليل اجازهي دادن به نشر تئوري توطئه درمورد تيراندازي در پاركلند بود. اين ماجرا مربوط به گروه سفيدپوست تندرويي بود كه با ۵ قتل ديگر مرتبط بودند.
پاسخهاي كاركنان امترك به سؤالات يوتيوب كمكي نميكند و ميتواند مغرضانه باشد
مباحثه در مورد چگونگي اصلاح يوتيوب، سيستمها و افراد فعلي را كه به بهبود يوتيوب كمك ميكنند در بر نميگيرد. بخشي از اين افراد، كاركنان امترك هستند كه به يادگيري جديدترين ابزار يادگيري ماشيني يوتيوب كمك ميكنند. اين ابزار روزي در تشخيص دقيق و سريع محتواي نامناسب كمك شاياني به پلتفرم يوتيوب خواهد كرد.
طبق گفتهي يوتيوب، الگوريتمها در حال حاضر ۹۸ درصد ويديوهاي افراطي را شناسايي ميكنند؛ البته بازهم اصلاحكنندههاي انساني اين ويديوها را بازبيني ميكنند. احتمالا الگوريتمها در آينده در متعادلسازي محتوا پا را فراتر خواهند گذاشت. اما در حال حاضر هوش مصنوعي آنقدر قوي نيست كه در مورد اينكه كدام ويديو بماند و كدام حذف شود، تصميمات جزئي بگيرد. البته دليل اين امر واضح است؛ پايه و اساس فناوري هوش مصنوعي يوتيوب به تصميمات فوري كاركنان امترك بستگي دارد. تلاش براي كپي كردن قضاوت انساني در هوش مصنوعي كار آساني نيست و پاسخ كاركنان امترك به سؤالات يوتيوب تنها بر اساس انديشه متخصصينات آنها گرفته ميشود و نميتواند كمكي به جريان كلي بكند. الگوريتمها حتي اگر با بهترين نيت ساخته شده باشند، بازهم هرگز كاملا خنثي و بيطرف نخواهند بود؛ چراكه ساختهي دست انسان هستند. گاهي اوقات حتي الگوريتمها هم نتيجهي كار افرادي كمحقوق هستند كه ويديوها را باسرعت ۱.۵ برابر تماشا ميكنند.
هم انديشي ها