سوگيري عمدي در هوش مصنوعي چگونه به ما آسيب مي‌رساند

پنج‌شنبه ۳ آبان ۱۳۹۷ - ۱۲:۰۰
مطالعه 5 دقيقه
مرجع متخصصين ايران
اشتباهات هوش مصنوعي، ديگر اتفاقي نيستند. سوگيري عمدي در هوش مصنوعي، تعريفي جديد از تهديدات حملات سايبري است كه افكار عمومي را جهت مي‌دهد.
تبليغات

موضوع تعصب ناخودآگاه در هوش مصنوعي، اغلب بر الگوريتم‌‌هايي تمركز دارد كه به‌‌صورت ناخواسته باعث آسيب به بخش‌هايي از جامعه مي‌شوند؛ براي نمونه مي‌‌توان به تصورات اشتباهي اشاره كرد مبني بر اينكه احتمال ارتكاب جرائم درمورد متهمان سياه‌‌پوست بيشتر است. اين اشكال از آنجا ناشي مي‌‌شود كه تكنولوژي‌هاي تشخيص چهره عمدتاً با استفاده از تصاوير مردان سفيدپوست توسعه مي‌‌يابند و در نتيجه الگوريتم در تشخيص چهره‌‌ي‌‌ زنان يا افراد داراي پوست تيره، عملكرد بسيار ضعيفي را از خود نشان مي‌‌دهد.

اما اشكال مي‌تواند بسيار عميق‌تر از اين موارد باشد. در حقيقت، جامعه بايد مراقب انحراف ديگري نيز باشد؛ اين احتمال وجود دارد كه افراد شرور به دنبال حمله‌‌ به سيستم‌هاي هوش مصنوعي باشند؛ به‌‌گونه‌‌اي كه تعصب و سوگيري‌‌هاي عامدانه را به‌‌صورت مخفيانه وارد سيستم يادگيري آن‌‌ها كنند. اين موضوع مي‌تواند به‌‌عنوان جنبه‌اي نگران‌كننده و تازه از حملات سايبري، كمپين‌‌هاي دروغ‌‌پراكني يا تكثير اخبار جعلي مطرح شود.

مرجع متخصصين ايران ai

با توجه به مطالعات دولت آمريكا روي داده‌هاي بزرگ و حريم خصوصي، الگوريتم‌هاي مغرضانه مي‌توانند اموري نظير پوشش‌دهي تسهيلات تبعيض‌آميز، استخدام و ديگر فعاليت‌هاي تجاري نامشروع را آسان‌تر كنند. الگوريتم‌‌ها را مي‌‌توان به‌منظور بهره‌‌برداري از عوامل به‌‌ظاهر بي‌ضرر كه در حقيقت تبعيض‌آميز هستند، طراحي كرد. به‌‌كارگيري تكنيك‌هاي فعلي با استفاده از داده‌‌ها يا الگوريتم هاي مغرضانه، مي‌تواند زمينه را براي پنهان‌‌سازي نيات پليد اشخاص و سازمان‌ها هموار كند. دلالان اطلاعات تجاري، انواع اطلاعات نظير جستجوهاي الكترونيك يا عادات خريد را جمع‌آوري و نگهداري مي‌‌كنند كه با كمك چنين ابزاري مي‌‌توان از آن‌‌ها سوءاستفاده كرد.

اطلاعات مغرضانه همچنين مي‌تواند به‌عنوان طعمه نيز مورد استفاده واقع شود. شركت‌ها مي‌توانند شروع به انتشار داده‌هاي مغرضانه كنند؛ به اميد آنكه رقيبان آن‌ها روزي از اين اطلاعات براي يادگيري الگوريتم‌هاي هوش مصنوعي استفاده كنند و بدين ترتيب باعث كاهش كيفيت محصولات و نيز سلب اعتماد مصرف‌كننده از آن‌ها شوند.

اين‌گونه حملات الگوريتمي همچنين مي‌تواند براي پيشبرد اهداف ايدئولوژيكي به‌‌راحتي مورد استفاده قرار گيرند. اگر گروه‌هاي كينه‌‌جوي سازمان‌هاي هواداري سياسي بخواهند مردم را بر اساس نژاد، جنسيت، مذهب يا ساير ويژگي‌ها هدف قرار دهند يا حذف كنند، الگوريتم‌هاي مغرضانه مي‌توانند به آن‌ها توجيه لازم يا روش‌هاي پيشرفته‌‌تري را براي پياده‌‌سازي مستقيم اين اهداف ارائه دهند. اطلاعات مغرضانه همچنين مي‌‌توانند در تلاش‌‌ براي نهادينه‌‌سازي تبعيض‌‌هاي نژادي و همچنين محدودسازي حق رأي، مؤثر واقع شوند.

نهايتاً، در مباحثه تهديدهاي امنيت ملي (از سوي بازيگران خارجي) مي‌توان از حملات متعصبانه براي بي‌ثبات كردن جوامع از طريق تضعيف مشروعيت دولت يا تشديد دودستگي مردم استفاده كرد. اين روش در راستاي همان تاكتيك‌هايي است كه به دنبال بهره‌برداري از شكاف ايدئولوژيكي هستند؛ كه در آن، گروه‌ها با استفاده از ابزارهايي نظير توليد پست در شبكه‌‌هاي اجتماعي و خريدن تبليغات الكترونيك به دنبال شعله‌ور كردن تنش‌هاي نژادي در جوامع هدف هستند.

مرجع متخصصين ايران هوش مصنوعي / AI

نفوذ سوگيري‌هاي عمدي در الگوريتم‌‌هاي تصميم‌‌گيري مي‌تواند بسيار ساده و درعين‌حال مؤثر باشد. رسيدن به اين هدف ممكن است با تكرار يا تشديد آن دسته از عواملي ميسر شود كه خود داراي نوعي جهت‌گيري هستند. بسياري از الگوريتم‌ها، پيش‌ از اين نيز با داده‌هاي جهت‌دار و مغرضانه تغذيه‌ شده‌اند. مهاجمان مي‌توانند با علم بر اينكه اين مجموعه‌‌داده‌‌ها جهت‌دار هستند؛ با همين داده‌‌ها به يادگيري الگوريتم‌‌ها بپردازند. انكارپذيري قابل‌‌قبولي كه در اين روش ايجاد مي‌‌شود، همان عاملي است كه اين حملات را به‌‌صورت بالقوه مؤثر و كارساز خواهد كرد. مهاجمان، افكار عمومي را به‌واسطه‌ي الگوريتم‌هايي كه به‌‌صورت عمدي يادگيري‌ديده‌اند، به‌‌گونه‌‌اي هدايت مي‌‌كنند كه منجر به تشديد دودستگي و تعصب در جوامع شوند.

الگوريتم «مسموم‌‌سازي» با دست‌كاري داده‌هاي يادگيريي، ايده‌‌ي جديدي نيست. مقامات ارشد اطلاعاتي آمريكا هشدار داده‌اند كه مهاجمان سايبري ممكن است مخفيانه به داده‌‌ها دسترسي پيدا كنند و با دست‌كاري در آن‌ها، موجب شوند كه داده‌ها به‌كلي از اعتبار ساقط شوند. واضح است كه اثبات كردن نيات بدخواهانه‌ي موجود در پس اين اقدام‌ها، موضوعي بسيار چالش‌‌برانگيز براي مطالعه و پيش‌‌آگاهي دادن در مورد آن است.

سوگيري هوش مصنوعي مي‌تواند ابزاري براي پيشبرد اهداف ايدئولوژيك، تبعيض‌هاي نژادي و مهندسي انتخابات باشد

اما انگيزه‌‌ي چنين اقداماتي ممكن است موضوعي باشد كه در حاشيه قرار بگيرد. درواقع هرگونه تعصب و سوگيري مي‌‌تواند براي ما جاي نگراني داشته باشد. دولت‌ها، شركت‌ها و اشخاص به‌طور فزاينده‌اي در حال جمع‌آوري و استفاده از داده‌ها به روش‌هايي گوناگون هستند كه ممكن است نوعي تعصب يا سوگيري را به همراه داشته باشند.

قطعا تعصب، يك چالش سيستماتيك به حساب مي‌‌آيد؛ موضوعي كه نيازمند راه‌حل‌هايي جامع است. راه‌حل‌هاي پيشنهادي فعلي براي پيشگيري از انحراف ناخواسته در هوش مصنوعي شامل افزايش تنوع نيروي كار، گسترش دسترسي به داده‌هاي يادگيريي متنوع و ايجاد شفافيت الگوريتمي (به‌معناي قابليت مشاهده‌‌ي نحوه‌‌ي توليد خروجي در الگوريتم‌ها) هستند.

پيش‌تر، اقداماتي با هدف پياده‌‌سازي اين ايده‌ها صورت گرفته است. مقامات دانشگاهي و ناظران صنايع، خواستار اعمال نظارت قانوني شده‌اند؛ به‌‌گونه‌‌اي كه سوگيري‌‌هاي فناوري به‌دقت تحت انديشه متخصصين قرار بگيرند. شركت‌هاي متخصص متعهد شده‌اند كه با متنوع ساختن نيروي كار خود و ارائه‌ي يادگيري‌‌هاي مرتبط، با سوگيري ناخودآگاه در مورد محصولات خود مبارزه كنند.

هم‌‌زمان با پيشرفت‌ فناوري در طول تاريخ، ما بايد به مطالعه چگونگي به‌‌كارگيري الگوريتم‌‌ها در جامعه و نتايج حاصل از آن ادامه دهيم. شناسايي و رسيدگي به جهت‌گيري‌ها در كساني كه الگوريتم‌ها را توسعه مي‌دهند و همچنين در داده‌هاي مورد استفاده براي يادگيري آن‌ها، راهي طولاني براي حصول اطمينان از اين‌‌ است كه سيستم‌هاي هوش مصنوعي در نهايت همه‌‌ي ما را بهره‌مند خواهند كرد؛ نه فقط آن‌هايي را كه از آن‌ بهره‌برداري مي‌كنند.

جديد‌ترين مطالب روز

هم انديشي ها

تبليغات

با چشم باز خريد كنيد
اخبار تخصصي، علمي، تكنولوژيكي، فناوري مرجع متخصصين ايران شما را براي انتخاب بهتر و خريد ارزان‌تر راهنمايي مي‌كند
ورود به بخش محصولات