هواپيماهاي بدون سرنشين به زودي به رباتهاي قاتل تبديل ميشوند
اين موضوع، پيشرفت جديدي در ساخت سلاحهاي كشنده است. در حالي كه هواپيماهاي بدون سرنشين فعلي همچنان توسط انسان كنترل ميشوند، اين فناوري جديد ميتواند تقريبا بدون دخالت انسان، تصميم به كشتن انسانها بگيرد. تكميل و عملياتي شدن اين هواپيماهاي بدون سرنشين، ميتواند پيامدهاي اخلاقي و قانوني گستردهاي براي جامعه ي جهاني داشته باشد.
اين جنگ افزارهاي جديد ميتوانند در آينده در نبردهاي هوايي و همچنين نابودي نيروهاي دشمن به كار روند. در عين حال، اين فناوري جديد، ميتواند حوزهي جنگ را هم گسترش دهد، به طوري كه شركتها، مهندسان و دانشمنداني كه در حال ساخت و توسعه هوش مصنوعي هستند را هم تبديل به اهداف نظامي كند. هواپيماهاي بدون سرنشين كشندهاي مانند ام كيو-9 ريپر (MQ-9 Reaper)، از طريق ماهواره به وسيلهي اپراتورها به دقت كنترل ميشوند.
اگر يك هواپيما بمب يا موشكي پرتاب كند، يك اپراتور به وسيلهي سنسورها و ليزر اين موشك يا بمب را هدايت ميكند. و در نهايت، خدمه پرواز مسئوليت اخلاقي، قانوني و عملياتي براي كشتن اهداف تعيين شده را برعهده خواهند داشت.
چنانچه يك اپراتور هواپيماي ريپر، ميگويد:
هميشه اين ذهنيت را دارم كه اجازه دهم يك شورشي حتي اگر هدف با اهميتي باشد؛ فرار كند تا اينكه شليك پر خطري انجام دهم كه موجب مرگ غير نظاميان شود.
حتي با كشتار توسط اين هواپيماهاي بدون سرنشين، احساسات، قضاوت و اخلاق انساني، هميشه در جنگ باقي خواهد ماند. وجود ضربهي رواني و اختلال استرسي پس از ضايعه رواني در ميان اپراتورهاي هواپيماهاي بدون سرنشين نشان دهندهي تاثير رواني كشتار از راه دور است. اين در واقع به استدلال احتمالي نظامي و اخلاقي رونالد آركين، در حمايت از هواپيماهاي بدون سرنشين مستقل اشاره دارد.
پرفسور آركين، متخصص رباتيك و اخلاق رباتيك، ربات و رئيس آزمايشگاه ربات هاي سيار در كالج محاسبات موسسه فناوري جورجياي است. او مدعي شده است كه رباتها ميتوانند به طور بالقوه، به لحاظ اخلاقي در ميدان نبرد نسبت به انسانها بهتر عمل كنند.
شايد اگر اين هواپيماهاي بدون سرنشين به طور مستقل اقدام به پرتاب بمب كنند، از وجود اشكالات رواني در ميان اعضاي خدمه پرواز اجتناب شود. ضعف اين استدلال اين است كه فرد نبايد مسئوليت قتل را به عهده بگيريد تا سبب ضايعه رواني در او شود. متخصصان اطلاعاتي و ديگر پرسنل نظامي مرتبا فيلمهايي از حملات هواپيماهاي بدون سرنشين را تحليل ميكنند. پژوهشها نشان ميدهد كه مرور تصاويري حاوي خشونت شديد، ممكن است كه موجب ابتلا به برخي ضايعات رواني شود. در پژوهشي ديگري بيش از ۱۰۰ نفر از اعضاي خدمه هواپيماي ريپر كه با آنها مصاحبه شده بود، همه روي اين موضوع اتفاق انديشه متخصصين داشتند كه در نهايت يك انسان بايد ماشه را بچكاند.
آزمايشهاي مرگبار شركتهاي اوبر و تسلا با خودروهاي خودران، نشان ميدهد كه كشتار ناخواسته همچون باگهاي كامپيوتري غيرقابل اجتناباند
و با وجود هواپيماهاي بدون سرنشين كاملا مستقل، اساسا فرايندهاي پيچيده و تصميمات پس از قتلهاي نظامي به كلي دگرگون ميشود. اما مسئوليتهاي اخلاقي و قانوني اينطور نيستند كه با حذف نظارت انساني از بين بروند. در عوض، مسئوليت به طور فزايندهاي بر گردن ديگران، از جمله دانشمندان هوش مصنوعي ميافتد. پيامدهاي قانوني اين تحولات هم اكنون هم آشكار شدهاند. بر اساس حقوق بينالملل بشردوستانه، تسهيلات دو منظوره (تسهيلاتي كه هم ميتوانند در برنامههاي غير نظامي و هم نظامي مورد استفاده قرار گيرند) ميتوانند در شرايط مناسب مورد استفاده قرار گيرند. به عنوان مثال، در سال ۱۹۹۹ و در جنگ كوزوو، پالايشگاه نفت پانچو مورد حمله قرار گرفت، زيرا ميتوانست سوخت نيروهاي يوگسلاوي و هم غيرنظاميان را تامين كند.
هم اكنون هواپيماهاي بدون سرنشين به وسيله اپراتورها كنترل ميشوند و مسئوليت اخلاقي، قانوني و عملياتي براي كشتن اهداف تعيين شده هم برعهده آنهاست
با يك هواپيماي بدون سرنشين مستقل، خطوط خاصي از كدهاي كامپيوتري هم تقريبا به عنوان تسهيلات دو منظوره دستهبندي خواهند شد. شركتهايي مانند گوگل، متخصصان يا سيستمهاي آنها ميتوانند به يك كشور ديگر حمله كنند. به عنوان مثال، اگر پروژه هوش مصنوعي ماون (Project Maven، تشخيص خودكار چهره شخص) در يك هواپيماي مستقل نظامي مورد استفاده قرار گيرد، گوگل هم وارد كسب و كار هواپيماهاي بدون سرنشين قاتل ميشود، همانطور كه ممكن است، پاي هر شخص غير نظامي ديگري (مشخصا افرادي كه در زمينهي هوش مصنوعي فعال هستند) هم به طور غيرمستقيم به اين موضوع باز شود.
از لحاظ اخلاقي، هنوز مسائل تيرهتري هم وجود دارد. كل ايدهي الگوريتمهاي خودآموز (الگوريتمهاي يادگيري ماشيني يا نرمافزارهايي كه به طور مستقل دادههاي مختلف را براي يادگيري جمعآوري ميكنند) اين است كه به طور مستمر در انجام هر كاري بهتر شوند. اگر يك هواپيماي بدون سرنشين بايد از طريق خودآموزي در انجام وظيفهاي بهتر شود، شخصي بايد تصميم بگيرد كه اين فناوري تا چه مرحلهاي پيشرفت كند، يعني مسائل بيشتري را بياموزد.
رونالد آركين، مدعي است كه رباتها ميتوانند به طور بالقوه، به لحاظ اخلاقي در ميدان نبرد نسبت به انسانها بهتر عمل كنند
در حقيقت، در يادگيري ماشيني نظامي، رهبران سياسي، نظاميان و مديران شركتها هستند كه تصميم ميگيرند، تا چه حد از تلفات غيرنظامي قابل قبول است. تجارب اخير هوش مصنوعي مستقل بايد براي جامعه هشدار دهنده باشد. آزمايشهاي مرگبار شركتهاي اوبر و تسلا با خودروهاي خودران، نشان ميدهد كه كشتار ناخواسته همچون باگهاي كامپيوتري غيرقابل اجتناباند.
اگر ماشينها تعيين كنند كه چه كسي بميرد، به ويژه در مقياس بزرگ، چيزي كه در آينده شاهدش خواهيم بود، نابودي انسانهاست. و هر حكومت يا نيروي نظامي كه چنين ماشينهاي كشتاري را به كار انداخته، هرگونه ارزشهايي را كه مدعي دفاع از آن است را نقض ميكند. و در همين حال، اپراتورهاي هواپيماهاي بدون سرنشين كه بين تصميم كشتن يا نكشتن، در كشمكش هستند، آخرين نمايندگان انساني دخيل در جنايت نظامي غير انساني خواهند بود.
هم انديشي ها