روباتهای قاتل واقعا وجود دارند؟
در سالهای پس از جنگ جهانی دوم رایانه ظهور کرد تا در کنار تئوری سایبرنتیک بنشیند و رکن اصلی تفکر نظامی، از «بمبهای هوشمند» هدایت لیزری عصر ویتنام گرفته تا موشکهای کروز پهبادهای ریپر را شکل دهد.
خبرگزاری فارس: بر اساس بیانیه صادره از وزارت دفاع آمریکا، همیشه این انسانها هستند که تصمیم نهایی را در این باره میگیرند که آیا روباتهای مسلح میتوانند شلیک کنند یا نه. این توضیح آنها در میان بیم و هراسهایی ارائه میشود که بر سر سیستمهای هدف گیری پیشرفته موسوم به اطلس وجود دارد؛ سیستمهایی که با استفاده از هوش مصنوعی در وسایل رزمی، برای هدفگیری و امحای تهدیدات به کار گرفته خواهند شد. هرچند ممکن است جامعه احساس بدی نسبت به اصطلاح «روباتهای قاتل» داشته باشد، اما این مفهوم اصلا چیز جدیدی نیست، مسلسلهایی مجهز به روباتهای «سوردز» در سال ۲۰۰۷ در عراق به کار گرفته شده اند. رابطه ما با روباتهای نظامی حتی به زمانی دورتر از این بازمی گردد. از آنجا که وقتی مردم از کلمه «روبات» استفاده میکنند، ممکن است منظورشان هر فناوریای باشد که شکلی از عنصر «خودکار» در آن به کار رفته باشد که به آن اجازه میدهد بدون نیاز به مداخله مستقیم انسان، وظیفهای را به اجرا بگذارد. این فناوریها مدت هاست که وجود داشته اند. در طول جنگ جهانی دوم از فیوز مجاورتی برای منفجر کردن گلولههای توپ در فاصلهای از پیش تعیین شده از هدفشان به کارگرفته شد. این کار موجب میشد که گلولهها بسیار کارآمدتر از زمانی باشند که بدون استفاده از این فیوز و از طریق افزودن تصمیم گیری انسانی و در برخی موارد خارج کردن کامل انسان از این حلقه باید به کار گرفته میشدند. پس پرسش این نیست که آیا باید از سیستمهای تسلیحاتی خودکار در نبرد استفاده کنیم یا خیر، چرا که ما پیشتر از آنها استفاده کرده ایم و به اشکال مختلفی هم این کار را انجام داده ایم. بلکه تمرکز ما باید بر چگونگی انجام این کار، چرایی استفاده از آنها و- اگر ضرورتی دارد- بر این باشد که دخالت انسانی چه شکلی باید داشته باشد.
تولد علم سایبرنتیک تحقیق من کندوکاوی است در فلسفه روابط انسان- ماشین با تمرکزی خاص بر اخلاقیات نظامی و نحوه تمیز گذاشتن ما بین انسانها و ماشین ها. در طول جنگ جهانی دوم رابرت واینر ریاضیدان هنگام کار در زمینه کنترل آتش ضد هواپیما، اصول علم سایبرنتیک - مطالعه واسطه بین انسان ها، حیوانات و ماشینها - را بنا گذاشت. واینر و همکارش جولین بیگلو با مطالعه انحرافات بین یک حرکت پیش بینی شده هواپیما و حرکت واقعی آن، به مفهوم «حلقه بازخورد» رسیدند که در آن میتوان انحرافات را به منظور تصحیح پیش بینیهای بعدی دوباره به خورد سیستم داد. از این رو تئوری واینر فراتر از افزودن صرف میرفت، چرا که فناوری سایبرنتیک میتوانست برای پیشگیری از تصمیمات انسانی به کار گرفته شود؛ حذف انسان خطاپذیر از حلقه به منظور بهتر و سریعتر کردن تصمیمات و کارآمدتر کردن سیستمهای تسلیحاتی. در سالهای پس از جنگ جهانی دوم رایانه ظهور کرد تا در کنار تئوری سایبرنتیک بنشیند و رکن اصلی تفکر نظامی، از «بمبهای هوشمند» هدایت لیزری عصر ویتنام گرفته تا موشکهای کروز پهبادهای ریپر را شکل دهد. دیگر بر خلاف روزهای اولیه، افزودن صرف جنگجوی انسانی کافی نبود. مرحله بعدی حذف کامل انسان بود؛ «درهم آمیختن» نتایج نظامی و همزمان به حداقل رساندن هزینه سیاسی ناشی از تلفات نیروهای متحد. این رویکرد به استفاده گسترده از پهبادهای نظامی از سوی آمریکا و متحدانش انجامید. گرچه این ماموریتها به شدت مجادله برانگیز هستند، ولی از نظر سیاسی ثابت شده که آنها برای ساکت کردن اعتراضات اجتماعی ناشی از تلفات نظامی به شدت ترجیح دارند.
ماشین ـ انسان یکی از مطرحترین موضوعات مربوط به رزم پهبادی، نقش خلبان یا «اپراتور» پهباد است. مثل تمام پرسنل دیگر این اوپراتورها نیز از سوی کارفرمایانشان ملزم به «انجام دادن یک کار خوب» میشوند. با این حال دراین مورد معنای موفقیت بسیار مبهم است. همان گونه که لوری گالون فیلسوف و منتقد فرهنگی گفته: «کسب و کار اپراتورهای یو سیای وی (پهبادها) کشتن است.» به این طریق وظیفه آنها به هیچ رو اتخاذ تصمیمات انسانی نیست، بلکه بیشتر انجام کاری است که برای آن استخدام شده اند. اگر رایانه به آنها بگوید بکش، آیا واقعا دلیلی وجود دارد که آنها این کار را انجام ندهند؟ همین حرف را میتوان در مورد سرباز مدرن زد. از ناوبری جی پی اس تا آپ لینکهای ویدئو، سربازان میتوانند تجهیزات متعددی را با خود حمل کنند که آنها را به شبکه گستردهای متصل میکند که بر هر حرکت آنها نظارت دارد. این به یک تناقض اخلاقی ختم میشود. اگر هدف سرباز تبعیت قدم به قدم از دستورهاست - با دوربینهایی که برای اطمینان از این تبعیت به کار میروند - در این صورت چرا ما باید خودمان را اصلا با چیزی به نام سربازان انسانی به زحمت بیندازیم؟ چرا که ماشینها بسیار کارآمدتر از انسانها هستند و به ابهام و استرس به شکلی که انسانها به آن دچار میشوند مبتلا نمیشوند. به هر روی اگر از سربازان انتظار میرود که به شکلی برنامه ریزی شده و روباتیک رفتار کنند، در این صورت فایده ریختن شدن خون سربازان متحد چه ضرورتی دارد؟ پاسخ به این سئوال این است که از انسان به عنوان یک عذر و بهانه یا شکلی از «پوشش اخلاقی» برای چیزی استفاده میشود که در عالم واقع کم و بیش به طور کامل عملی مکانیکی و روباتیک است. همانطور که شغل یک اپراتور پهباد نظارت بر پهبادی است که رایانهها آن را کنترل میکنند، نقش انسان در سیستم جدید اطلس وزارت امور خارجه نیز صرفا عمل کردن به عنوان یک پوشش اخلاقی برای کارهایی است که اشتباه از کار در میآیند. هر چند امکان دارد پهبادهای پردیتور و ریپر در پیش صحنه تخیل همگانی درباره خودکارسازی نظامی و «روباتهای قاتل» قرار داشته باشند، ولی این نوآوریها چیز جدیدی در خود ندارند. آنها صرفا جدیدترین فرآوردهها در امتداد خطی طولانی از پیشرفتهایی هستند که سابقه آنها به چندین دهه پیش بازمی گردد. در حالی که برای برخی از خوانندگان راحتتر است که تصور کنند تصمیم گیری انسانی همیشه استقلال ماشینی را مختل میکند، اما در واقع این چشم پوشیدن بر واقعیت است. سیستمهای خودکار مدت هاست که در ساختار ارتش تعبیه شده اند و ما باید خود را برای پیامدهای آنها آماده کنیم. نویسنده: مایک رایدر (Mike Ryder) استاد فلسفه در دانشگاه لنکستر منبع: yon.ir/VyDsu
دیدگاه تان را بنویسید