سوگيري عمدي در هوش مصنوعي چگونه به ما آسيب ميرساند
موضوع تعصب ناخودآگاه در هوش مصنوعي، اغلب بر الگوريتمهايي تمركز دارد كه بهصورت ناخواسته باعث آسيب به بخشهايي از جامعه ميشوند؛ براي نمونه ميتوان به تصورات اشتباهي اشاره كرد مبني بر اينكه احتمال ارتكاب جرائم درمورد متهمان سياهپوست بيشتر است. اين اشكال از آنجا ناشي ميشود كه تكنولوژيهاي تشخيص چهره عمدتاً با استفاده از تصاوير مردان سفيدپوست توسعه مييابند و در نتيجه الگوريتم در تشخيص چهرهي زنان يا افراد داراي پوست تيره، عملكرد بسيار ضعيفي را از خود نشان ميدهد.
اما اشكال ميتواند بسيار عميقتر از اين موارد باشد. در حقيقت، جامعه بايد مراقب انحراف ديگري نيز باشد؛ اين احتمال وجود دارد كه افراد شرور به دنبال حمله به سيستمهاي هوش مصنوعي باشند؛ بهگونهاي كه تعصب و سوگيريهاي عامدانه را بهصورت مخفيانه وارد سيستم يادگيري آنها كنند. اين موضوع ميتواند بهعنوان جنبهاي نگرانكننده و تازه از حملات سايبري، كمپينهاي دروغپراكني يا تكثير اخبار جعلي مطرح شود.
با توجه به مطالعات دولت آمريكا روي دادههاي بزرگ و حريم خصوصي، الگوريتمهاي مغرضانه ميتوانند اموري نظير پوششدهي تسهيلات تبعيضآميز، استخدام و ديگر فعاليتهاي تجاري نامشروع را آسانتر كنند. الگوريتمها را ميتوان بهمنظور بهرهبرداري از عوامل بهظاهر بيضرر كه در حقيقت تبعيضآميز هستند، طراحي كرد. بهكارگيري تكنيكهاي فعلي با استفاده از دادهها يا الگوريتم هاي مغرضانه، ميتواند زمينه را براي پنهانسازي نيات پليد اشخاص و سازمانها هموار كند. دلالان اطلاعات تجاري، انواع اطلاعات نظير جستجوهاي الكترونيك يا عادات خريد را جمعآوري و نگهداري ميكنند كه با كمك چنين ابزاري ميتوان از آنها سوءاستفاده كرد.
اطلاعات مغرضانه همچنين ميتواند بهعنوان طعمه نيز مورد استفاده واقع شود. شركتها ميتوانند شروع به انتشار دادههاي مغرضانه كنند؛ به اميد آنكه رقيبان آنها روزي از اين اطلاعات براي يادگيري الگوريتمهاي هوش مصنوعي استفاده كنند و بدين ترتيب باعث كاهش كيفيت محصولات و نيز سلب اعتماد مصرفكننده از آنها شوند.
اينگونه حملات الگوريتمي همچنين ميتواند براي پيشبرد اهداف ايدئولوژيكي بهراحتي مورد استفاده قرار گيرند. اگر گروههاي كينهجوي سازمانهاي هواداري سياسي بخواهند مردم را بر اساس نژاد، جنسيت، مذهب يا ساير ويژگيها هدف قرار دهند يا حذف كنند، الگوريتمهاي مغرضانه ميتوانند به آنها توجيه لازم يا روشهاي پيشرفتهتري را براي پيادهسازي مستقيم اين اهداف ارائه دهند. اطلاعات مغرضانه همچنين ميتوانند در تلاش براي نهادينهسازي تبعيضهاي نژادي و همچنين محدودسازي حق رأي، مؤثر واقع شوند.
نهايتاً، در مباحثه تهديدهاي امنيت ملي (از سوي بازيگران خارجي) ميتوان از حملات متعصبانه براي بيثبات كردن جوامع از طريق تضعيف مشروعيت دولت يا تشديد دودستگي مردم استفاده كرد. اين روش در راستاي همان تاكتيكهايي است كه به دنبال بهرهبرداري از شكاف ايدئولوژيكي هستند؛ كه در آن، گروهها با استفاده از ابزارهايي نظير توليد پست در شبكههاي اجتماعي و خريدن تبليغات الكترونيك به دنبال شعلهور كردن تنشهاي نژادي در جوامع هدف هستند.
نفوذ سوگيريهاي عمدي در الگوريتمهاي تصميمگيري ميتواند بسيار ساده و درعينحال مؤثر باشد. رسيدن به اين هدف ممكن است با تكرار يا تشديد آن دسته از عواملي ميسر شود كه خود داراي نوعي جهتگيري هستند. بسياري از الگوريتمها، پيش از اين نيز با دادههاي جهتدار و مغرضانه تغذيه شدهاند. مهاجمان ميتوانند با علم بر اينكه اين مجموعهدادهها جهتدار هستند؛ با همين دادهها به يادگيري الگوريتمها بپردازند. انكارپذيري قابلقبولي كه در اين روش ايجاد ميشود، همان عاملي است كه اين حملات را بهصورت بالقوه مؤثر و كارساز خواهد كرد. مهاجمان، افكار عمومي را بهواسطهي الگوريتمهايي كه بهصورت عمدي يادگيريديدهاند، بهگونهاي هدايت ميكنند كه منجر به تشديد دودستگي و تعصب در جوامع شوند.
الگوريتم «مسمومسازي» با دستكاري دادههاي يادگيريي، ايدهي جديدي نيست. مقامات ارشد اطلاعاتي آمريكا هشدار دادهاند كه مهاجمان سايبري ممكن است مخفيانه به دادهها دسترسي پيدا كنند و با دستكاري در آنها، موجب شوند كه دادهها بهكلي از اعتبار ساقط شوند. واضح است كه اثبات كردن نيات بدخواهانهي موجود در پس اين اقدامها، موضوعي بسيار چالشبرانگيز براي مطالعه و پيشآگاهي دادن در مورد آن است.
سوگيري هوش مصنوعي ميتواند ابزاري براي پيشبرد اهداف ايدئولوژيك، تبعيضهاي نژادي و مهندسي انتخابات باشد
اما انگيزهي چنين اقداماتي ممكن است موضوعي باشد كه در حاشيه قرار بگيرد. درواقع هرگونه تعصب و سوگيري ميتواند براي ما جاي نگراني داشته باشد. دولتها، شركتها و اشخاص بهطور فزايندهاي در حال جمعآوري و استفاده از دادهها به روشهايي گوناگون هستند كه ممكن است نوعي تعصب يا سوگيري را به همراه داشته باشند.
قطعا تعصب، يك چالش سيستماتيك به حساب ميآيد؛ موضوعي كه نيازمند راهحلهايي جامع است. راهحلهاي پيشنهادي فعلي براي پيشگيري از انحراف ناخواسته در هوش مصنوعي شامل افزايش تنوع نيروي كار، گسترش دسترسي به دادههاي يادگيريي متنوع و ايجاد شفافيت الگوريتمي (بهمعناي قابليت مشاهدهي نحوهي توليد خروجي در الگوريتمها) هستند.
پيشتر، اقداماتي با هدف پيادهسازي اين ايدهها صورت گرفته است. مقامات دانشگاهي و ناظران صنايع، خواستار اعمال نظارت قانوني شدهاند؛ بهگونهاي كه سوگيريهاي فناوري بهدقت تحت انديشه متخصصين قرار بگيرند. شركتهاي متخصص متعهد شدهاند كه با متنوع ساختن نيروي كار خود و ارائهي يادگيريهاي مرتبط، با سوگيري ناخودآگاه در مورد محصولات خود مبارزه كنند.
همزمان با پيشرفت فناوري در طول تاريخ، ما بايد به مطالعه چگونگي بهكارگيري الگوريتمها در جامعه و نتايج حاصل از آن ادامه دهيم. شناسايي و رسيدگي به جهتگيريها در كساني كه الگوريتمها را توسعه ميدهند و همچنين در دادههاي مورد استفاده براي يادگيري آنها، راهي طولاني براي حصول اطمينان از اين است كه سيستمهاي هوش مصنوعي در نهايت همهي ما را بهرهمند خواهند كرد؛ نه فقط آنهايي را كه از آن بهرهبرداري ميكنند.
هم انديشي ها