هواپيماهاي بدون سرنشين به زودي به ربات‌هاي قاتل تبديل مي‌شوند

جمعه ۷ ارديبهشت ۱۳۹۷ - ۲۳:۱۵
مطالعه 4 دقيقه
مرجع متخصصين ايران
ارتش ايالات متحده اخيرا اعلام كرده، در حال ساخت اولين هواپيماهاي بدون سرنشيني است كه مي‌توانند با استفاده از هوش مصنوعي، وسايل نقليه و مردم را هدف قرار دهند.
تبليغات

اين موضوع، پيشرفت جديدي در ساخت سلاح‌هاي كشنده است. در حالي كه هواپيماهاي بدون سرنشين فعلي همچنان توسط انسان كنترل مي‌شوند، اين فناوري جديد مي‌تواند تقريبا بدون دخالت انسان، تصميم به كشتن انسان‌ها بگيرد. تكميل و عملياتي شدن اين هواپيماهاي بدون سرنشين، مي‌تواند پيامدهاي اخلاقي و قانوني گسترده‌اي براي جامعه ي جهاني داشته باشد.

اين جنگ افزارهاي جديد مي‌توانند در آينده در نبردهاي هوايي و همچنين نابودي نيروهاي دشمن به كار روند.  در عين حال، اين فناوري جديد، مي‌تواند حوزه‌ي جنگ را هم گسترش دهد، به طوري كه شركت‌ها، مهندسان و دانشمنداني كه در حال ساخت و توسعه هوش مصنوعي هستند را هم تبديل به اهداف نظامي كند. هواپيماهاي بدون سرنشين كشنده‌اي مانند ام كيو-9 ريپر (MQ-9 Reaper)، از طريق ماهواره به وسيله‌ي اپراتورها به دقت كنترل مي‌شوند.

اگر يك هواپيما بمب يا موشكي پرتاب كند، يك اپراتور به وسيله‌ي سنسورها و ليزر اين موشك يا بمب را هدايت مي‌كند. و در نهايت، خدمه پرواز مسئوليت اخلاقي، قانوني و عملياتي براي كشتن اهداف تعيين شده را برعهده خواهند داشت.

چنانچه يك اپراتور هواپيماي ريپر، مي‌گويد:

هميشه اين ذهنيت را دارم كه اجازه دهم يك شورشي حتي اگر هدف با اهميتي باشد؛ فرار كند تا اينكه شليك پر خطري انجام دهم كه موجب مرگ غير نظاميان شود.

حتي با كشتار توسط اين هواپيماهاي بدون سرنشين، احساسات، قضاوت و اخلاق انساني، هميشه در جنگ باقي خواهد ماند. وجود ضربه‌ي رواني و اختلال استرسي پس از ضايعه رواني در ميان اپراتورهاي هواپيماهاي بدون سرنشين نشان دهنده‌ي تاثير رواني كشتار از راه دور است. اين در واقع به استدلال احتمالي نظامي و اخلاقي رونالد آركين، در حمايت از هواپيماهاي بدون سرنشين مستقل اشاره دارد.

پرفسور آركين، متخصص رباتيك و اخلاق رباتيك، ربات و رئيس آزمايشگاه ربات هاي سيار در كالج محاسبات موسسه فناوري جورجياي است. او مدعي شده است كه ربات‌ها مي‌توانند به طور بالقوه، به لحاظ اخلاقي در ميدان نبرد نسبت به انسان‌ها بهتر عمل كنند.

 شايد اگر اين هواپيماهاي بدون سرنشين به طور مستقل اقدام به پرتاب بمب كنند، از وجود اشكالات رواني در ميان اعضاي خدمه پرواز اجتناب شود. ضعف اين استدلال اين است كه فرد نبايد مسئوليت قتل را به عهده بگيريد تا سبب ضايعه رواني در او شود. متخصصان اطلاعاتي و ديگر پرسنل نظامي مرتبا فيلم‌هايي از حملات هواپيماهاي بدون سرنشين را تحليل مي‌كنند. پژوهش‌ها نشان مي‌دهد كه مرور تصاويري حاوي خشونت شديد، ممكن است كه موجب ابتلا به برخي ضايعات رواني شود. در پژوهشي ديگري بيش از ۱۰۰ نفر از اعضاي خدمه هواپيماي ريپر كه با آن‌ها مصاحبه شده بود، همه روي اين موضوع اتفاق انديشه متخصصين داشتند كه در نهايت يك انسان بايد ماشه را بچكاند.

آزمايش‌هاي مرگبار شركت‌هاي اوبر و تسلا با خودروهاي خودران، نشان مي‌دهد كه كشتار ناخواسته همچون باگ‌هاي كامپيوتري غيرقابل اجتناب‌اند

و با وجود هواپيماهاي بدون سرنشين كاملا مستقل، اساسا فرايندهاي پيچيده و تصميمات پس از قتل‌هاي نظامي به كلي دگرگون مي‌شود. اما مسئوليت‌هاي اخلاقي و قانوني اينطور نيستند كه با حذف نظارت انساني از بين بروند. در عوض، مسئوليت به طور فزاينده‌اي بر گردن ديگران، از جمله دانشمندان هوش مصنوعي مي‌افتد. پيامدهاي قانوني اين تحولات هم اكنون هم آشكار شده‌اند. بر اساس حقوق بين‌الملل بشردوستانه، تسهيلات دو منظوره (تسهيلاتي كه هم مي‌توانند در برنامه‌هاي غير نظامي و هم نظامي مورد استفاده قرار گيرند) مي‌توانند در شرايط مناسب مورد استفاده قرار گيرند. به عنوان مثال، در سال ۱۹۹۹ و در جنگ كوزوو، پالايشگاه نفت پانچو مورد حمله قرار گرفت، زيرا مي‌توانست سوخت نيروهاي يوگسلاوي و هم غيرنظاميان را تامين كند.

هم اكنون هواپيماهاي بدون سرنشين به وسيله اپراتورها كنترل مي‌شوند و مسئوليت اخلاقي، قانوني و عملياتي براي كشتن اهداف تعيين شده هم برعهده آن‌هاست

با يك هواپيماي بدون سرنشين مستقل، خطوط خاصي از كدهاي كامپيوتري هم تقريبا به عنوان تسهيلات دو منظوره دسته‌بندي خواهند شد. شركت‌هايي مانند گوگل، متخصصان يا سيستم‌هاي آن‌ها مي‌توانند به يك كشور ديگر حمله كنند. به عنوان مثال، اگر پروژه هوش مصنوعي ماون (Project Maven، تشخيص خودكار چهره شخص) در يك هواپيماي مستقل نظامي مورد استفاده قرار گيرد، گوگل هم وارد كسب و كار هواپيماهاي بدون سرنشين قاتل مي‌شود، همانطور كه ممكن است، پاي هر شخص غير نظامي ديگري (مشخصا افرادي كه در زمينه‌ي هوش مصنوعي فعال هستند) هم به طور غيرمستقيم به اين موضوع باز شود.

از لحاظ اخلاقي، هنوز مسائل تيره‌تري هم وجود دارد. كل ايده‌ي الگوريتم‌هاي خودآموز (الگوريتم‌هاي يادگيري ماشيني يا نرم‌افزارهايي كه به طور مستقل داده‌هاي مختلف را براي يادگيري جمع‌آوري مي‌كنند) اين است كه به طور مستمر در انجام هر كاري بهتر شوند. اگر يك هواپيماي بدون سرنشين بايد از طريق خودآموزي در انجام وظيفه‌اي بهتر شود، شخصي بايد تصميم بگيرد كه اين فناوري تا چه مرحله‌اي پيشرفت كند، يعني مسائل بيشتري را بياموزد.

رونالد آركين، مدعي است كه ربات‌ها مي‌توانند به طور بالقوه، به لحاظ اخلاقي در ميدان نبرد نسبت به انسان‌ها بهتر عمل كنند

در حقيقت، در يادگيري ماشيني نظامي، رهبران سياسي، نظاميان و مديران شركت‌ها هستند كه تصميم مي‌گيرند، تا چه حد از تلفات غيرنظامي قابل قبول است. تجارب اخير هوش مصنوعي مستقل بايد براي جامعه هشدار دهنده باشد. آزمايش‌هاي مرگبار شركت‌هاي اوبر و تسلا با خودروهاي خودران، نشان مي‌دهد كه كشتار ناخواسته همچون باگ‌هاي كامپيوتري غيرقابل اجتناب‌اند.

اگر ماشين‌ها تعيين كنند كه چه كسي بميرد، به ويژه در مقياس بزرگ، چيزي كه در آينده شاهدش خواهيم بود، نابودي انسان‌هاست. و هر حكومت يا نيروي نظامي كه چنين ماشين‌هاي كشتاري را به كار انداخته، هرگونه ارزش‌هايي را كه مدعي دفاع از آن است را نقض مي‌كند. و در همين حال، اپراتورهاي هواپيماهاي بدون سرنشين كه بين تصميم كشتن يا نكشتن، در كشمكش هستند، آخرين نمايندگان انساني دخيل در جنايت نظامي غير انساني خواهند بود.

جديد‌ترين مطالب روز

هم انديشي ها

تبليغات

با چشم باز خريد كنيد
اخبار تخصصي، علمي، تكنولوژيكي، فناوري مرجع متخصصين ايران شما را براي انتخاب بهتر و خريد ارزان‌تر راهنمايي مي‌كند
ورود به بخش محصولات