روبات‌های قاتل واقعا وجود دارند؟

در سال‌های پس از جنگ جهانی دوم رایانه ظهور کرد تا در کنار تئوری سایبرنتیک بنشیند و رکن اصلی تفکر نظامی، از «بمب‌های هوشمند» هدایت لیزری عصر ویتنام گرفته تا موشک‌های کروز پهباد‌های ریپر را شکل دهد.

کد خبر : 934809

خبرگزاری فارس: بر اساس بیانیه صادره از وزارت دفاع آمریکا، همیشه این انسان‌ها هستند که تصمیم نهایی را در این باره می‌گیرند که آیا روبات‌های مسلح می‌توانند شلیک کنند یا نه. این توضیح آن‌ها در میان بیم و هراس‌هایی ارائه می‌شود که بر سر سیستم‌های هدف گیری پیشرفته موسوم به اطلس وجود دارد؛ سیستم‌هایی که با استفاده از هوش مصنوعی در وسایل رزمی، برای هدفگیری و امحای تهدیدات به کار گرفته خواهند شد. هرچند ممکن است جامعه احساس بدی نسبت به اصطلاح «روبات‌های قاتل» داشته باشد، اما این مفهوم اصلا چیز جدیدی نیست، مسلسل‌هایی مجهز به روبات‌های «سوردز» در سال ۲۰۰۷ در عراق به کار گرفته شده اند. رابطه ما با روبات‌های نظامی حتی به زمانی دورتر از این بازمی گردد. از آنجا که وقتی مردم از کلمه «روبات» استفاده می‌کنند، ممکن است منظورشان هر فناوری‌ای باشد که شکلی از عنصر «خودکار» در آن به کار رفته باشد که به آن اجازه می‌دهد بدون نیاز به مداخله مستقیم انسان، وظیفه‌ای را به اجرا بگذارد. این فناوری‌ها مدت هاست که وجود داشته اند. در طول جنگ جهانی دوم از فیوز مجاورتی برای منفجر کردن گلوله‌های توپ در فاصله‌ای از پیش تعیین شده از هدفشان به کارگرفته شد. این کار موجب می‌شد که گلوله‌ها بسیار کارآمدتر از زمانی باشند که بدون استفاده از این فیوز و از طریق افزودن تصمیم گیری انسانی و در برخی موارد خارج کردن کامل انسان از این حلقه باید به کار گرفته می‌شدند. پس پرسش این نیست که آیا باید از سیستم‌های تسلیحاتی خودکار در نبرد استفاده کنیم یا خیر، چرا که ما پیشتر از آن‌ها استفاده کرده ایم و به اشکال مختلفی هم این کار را انجام داده ایم. بلکه تمرکز ما باید بر چگونگی انجام این کار، چرایی استفاده از آن‌ها و- اگر ضرورتی دارد- بر این باشد که دخالت انسانی چه شکلی باید داشته باشد.

تولد علم سایبرنتیک تحقیق من کندوکاوی است در فلسفه روابط انسان- ماشین با تمرکزی خاص بر اخلاقیات نظامی و نحوه تمیز گذاشتن ما بین انسان‌ها و ماشین ها. در طول جنگ جهانی دوم رابرت واینر ریاضیدان هنگام کار در زمینه کنترل آتش ضد هواپیما، اصول علم سایبرنتیک - مطالعه واسطه بین انسان ها، حیوانات و ماشین‌ها - را بنا گذاشت. واینر و همکارش جولین بیگلو با مطالعه انحرافات بین یک حرکت پیش بینی شده هواپیما و حرکت واقعی آن، به مفهوم «حلقه بازخورد» رسیدند که در آن می‌توان انحرافات را به منظور تصحیح پیش بینی‌های بعدی دوباره به خورد سیستم داد. از این رو تئوری واینر فراتر از افزودن صرف می‌رفت، چرا که فناوری سایبرنتیک می‌توانست برای پیشگیری از تصمیمات انسانی به کار گرفته شود؛ حذف انسان خطاپذیر از حلقه به منظور بهتر و سریع‌تر کردن تصمیمات و کارآمدتر کردن سیستم‌های تسلیحاتی. در سال‌های پس از جنگ جهانی دوم رایانه ظهور کرد تا در کنار تئوری سایبرنتیک بنشیند و رکن اصلی تفکر نظامی، از «بمب‌های هوشمند» هدایت لیزری عصر ویتنام گرفته تا موشک‌های کروز پهباد‌های ریپر را شکل دهد. دیگر بر خلاف روز‌های اولیه، افزودن صرف جنگجوی انسانی کافی نبود. مرحله بعدی حذف کامل انسان بود؛ «درهم آمیختن» نتایج نظامی و همزمان به حداقل رساندن هزینه سیاسی ناشی از تلفات نیرو‌های متحد. این رویکرد به استفاده گسترده از پهباد‌های نظامی از سوی آمریکا و متحدانش انجامید. گرچه این ماموریت‌ها به شدت مجادله برانگیز هستند، ولی از نظر سیاسی ثابت شده که آن‌ها برای ساکت کردن اعتراضات اجتماعی ناشی از تلفات نظامی به شدت ترجیح دارند.

ماشین ـ انسان یکی از مطرح‌ترین موضوعات مربوط به رزم پهبادی، نقش خلبان یا «اپراتور» پهباد است. مثل تمام پرسنل دیگر این اوپراتور‌ها نیز از سوی کارفرمایانشان ملزم به «انجام دادن یک کار خوب» می‌شوند. با این حال دراین مورد معنای موفقیت بسیار مبهم است. همان گونه که لوری گالون فیلسوف و منتقد فرهنگی گفته: «کسب و کار اپراتور‌های یو سی‌ای وی (پهبادها) کشتن است.» به این طریق وظیفه آن‌ها به هیچ رو اتخاذ تصمیمات انسانی نیست، بلکه بیشتر انجام کاری است که برای آن استخدام شده اند. اگر رایانه به آن‌ها بگوید بکش، آیا واقعا دلیلی وجود دارد که آن‌ها این کار را انجام ندهند؟ همین حرف را می‌توان در مورد سرباز مدرن زد. از ناوبری جی پی اس تا آپ لینک‌های ویدئو، سربازان می‌توانند تجهیزات متعددی را با خود حمل کنند که آن‌ها را به شبکه گسترده‌ای متصل می‌کند که بر هر حرکت آن‌ها نظارت دارد. این به یک تناقض اخلاقی ختم می‌شود. اگر هدف سرباز تبعیت قدم به قدم از دستورهاست - با دوربین‌هایی که برای اطمینان از این تبعیت به کار می‌روند - در این صورت چرا ما باید خودمان را اصلا با چیزی به نام سربازان انسانی به زحمت بیندازیم؟ چرا که ماشین‌ها بسیار کارآمدتر از انسان‌ها هستند و به ابهام و استرس به شکلی که انسان‌ها به آن دچار می‌شوند مبتلا نمی‌شوند. به هر روی اگر از سربازان انتظار می‌رود که به شکلی برنامه ریزی شده و روباتیک رفتار کنند، در این صورت فایده ریختن شدن خون سربازان متحد چه ضرورتی دارد؟ پاسخ به این سئوال این است که از انسان به عنوان یک عذر و بهانه یا شکلی از «پوشش اخلاقی» برای چیزی استفاده می‌شود که در عالم واقع کم و بیش به طور کامل عملی مکانیکی و روباتیک است. همانطور که شغل یک اپراتور پهباد نظارت بر پهبادی است که رایانه‌ها آن را کنترل می‌کنند، نقش انسان در سیستم جدید اطلس وزارت امور خارجه نیز صرفا عمل کردن به عنوان یک پوشش اخلاقی برای کار‌هایی است که اشتباه از کار در می‌آیند. هر چند امکان دارد پهباد‌های پردیتور و ریپر در پیش صحنه تخیل همگانی درباره خودکارسازی نظامی و «روبات‌های قاتل» قرار داشته باشند، ولی این نوآوری‌ها چیز جدیدی در خود ندارند. آن‌ها صرفا جدیدترین فرآورده‌ها در امتداد خطی طولانی از پیشرفت‌هایی هستند که سابقه آن‌ها به چندین دهه پیش بازمی گردد. در حالی که برای برخی از خوانندگان راحت‌تر است که تصور کنند تصمیم گیری انسانی همیشه استقلال ماشینی را مختل می‌کند، اما در واقع این چشم پوشیدن بر واقعیت است. سیستم‌های خودکار مدت هاست که در ساختار ارتش تعبیه شده اند و ما باید خود را برای پیامد‌های آن‌ها آماده کنیم. نویسنده: مایک رایدر (Mike Ryder) استاد فلسفه در دانشگاه لنکستر منبع: yon.ir/VyDsu

لینک کوتاه :

با دوستان خود به اشتراک بگذارید: