اذعان يوتيوب به خطاي بازبينهاي هوش مصنوعي؛ ناظران انساني به سر كار خود بازميگردند
يوتيوب بهدليل دقت پايين فيلترهاي هوش مصنوعي در نظارت بر محتواي اين شبكه، قصد دارد براي انجام اين وظيفه، بيشتر از ناظران محتواي خود استفاده كند.
با شيوع ويروس كرونا و آغاز دوركاري متخصصان، اين پلتفرم ويدئومحور اعلام كرده بود كه بهجاي نيروي انساني، از الگوريتمهاي خودكار براي نظارت بر محتواي بارگذاريشده استفاده ميكند.
مارس امسال، يوتيوب گفت كه براي حذف محتواي نقضكنندهي سياستهاي اين پلتفرم و نفرتپراكنيها و اطلاعات نادرست، قصد دارد بيشتر از سيستمهاي يادگيري ماشين استفاده كند. هرچند كه در هفتهي جاري، يوتيوب به رسانهي فايننشال تايمز اعلام كرد كه ناظران هوش مصنوعي، ويدئوهاي زيادي را بهاشتباه از اين پلتفرم حذف كردهاند.
از آوريل تا جون، حدود ۱۱ ميليون ويدئو از يوتيوب حذف شد كه حدود دوبرابر تعداد معمول است. بيش از نيمي از تعداد ذكرشده بازگرداني شدند و حدود ۳۲۰،۰۰۰ از ويدئوهاي حذفشده مورد مطالعه قرار گرفتند. بهگزارش فايننشال تايمز، سيستمهاي هوش مصنوعي در انجام وظيفه خود افراط كرده و دوبرابر آمار معمول، ويدئوها را بهدليل محتواي نامناسب بهاشتباه حذف كردهاند.
نيل موهان، مدير ارشد محصول يوتيوب گفت:
در آغاز همهگيري ويروس كرونا تصميم گرفتيم بهجاي نيروي انساني، سيستم يادگيري ماشين بر محتواي اين پلتفرم نظارت كند. هرچند كه ميدانستيم اين سيستم نميتواند به اندازهي انسان دقيق باشد و ممكن است ويدئوهاي بيشتري را به اشتباه حذف كند؛ اما بهمنظور تأمين امنيت متخصصان از آن كمك گرفتيم.
واضح است هوش مصنوعي در تشخيص محتواي نامناسب عملكرد دقيقي نداشت. انتشار نفرتپراكنيها و محتواي نامناسب، چالش بسياري از شبكههاي اجتماعي ازجمله توييتر، فيسبوك و يوتيوب است. پلتفرمهاي يادشده مدعي شده بودند كه الگوريتمها و فيلترهاي خودكار ميتواند امنيت پلتفرمشان را تأمين كنند.
ناظران پلتفرمهاي شبكهي اجتماعي شغل پراسترسي دارند و با درانديشه متخصصينگرفتن قوانين خاص هر شبكه، بايد هزاران محتواي نامناسب را مطالعه كنند. با اينكه اين ناظران تحت برنامههاي فشردهي كاري بايد فعاليت كنند؛ اما حمايت كافي از آنها صورت نميگيرد. برخي از پلتفرمها تصميم دارند براي اين انجام اين وظيفه از فناوريهاي هوش مصنوعي و يادگيري ماشين استفاده كنند. اين فناوريها ميتوانند با استفاده از تشخيص چهره و دستهبندي محتوا به ناظران اين بخش كمك كنند.
هرچند متخصص كارشناسان هوش مصنوعي و ناظران بارها مدعي شدند كه اين سيستم نميتواند اشكال انتشار محتواي نامناسب پلتفرمها را رفع كند. بهگفتهي آنها، فناوري مانند انسان نميتواند محتواهايي مانند نژادپرستي را كه باعث ناراحتي متخصصان ميشوند، تشخيص دهد. هوش مصنوعي ميتواند در شناسايي برخي از محتواهاي نامناسب بديهي مفيد باشد؛ اما براي انجام دقيق اين وظيفه هنوز هم به نيروي انساني نياز است.
هنوز سيستمهاي ناظر، اشتباهات زيادي را مرتكب ميشوند؛ مثلا در مه امسال، بسياري از كامنتهاي متخصصان كه عبارات چيني در آنها بهكار رفته بود، بهطور خودكار حذف شدند. ازآنجاكه اين عبارات هيچ ارتباطي به محتواي حزب كمونيست چين نداشتند و قوانين را نقض نميكردند و هوش مصنوعي بهاشتباه آنها را تشخيص بود، سخنگوي يوتيوب آن را به خطايي در سيستمهاي اجرايي اين پلتفرم ربط داد.
بههرحال بهگفتهي موهان، سيستمهاي يادگيري ماشين، متخصصدهاي خاص خودشان را دارند. هرچند ۱۱ ميليون محتوا به اشتباه حذف شده؛ اما نيمي از اين تعداد بدون بازديد حتي يك متخصص يوتيوب و بيش از ۸۰ درصدشان نيز با كمتر از ۱۰ بار بازديد از پلتفرم حذف شدهاند كه اين سرعتعمل و قدرت سيستمهاي يادگيري ماشين را نشان ميدهد.
هم انديشي ها