گروه بین الملل: میدانهای نبرد آینده تحت تسلط کسانی خواهد بود که میتوانند به بهترین شکل از هوش برای مانور دادن سریع و دقیق در برابر مخالفان استفاده کنند. جنگ کنونی در اوکراین یک نمونه آشکار از این موضوع است.
برای مثال، در جریان عبور فاجعه بار اخیر نیروهای روس از رودخانه ای در منطقه دونباس نیروهای اوکراینی توانستند از منابع اطلاعاتی برای شناسایی، به دام انداختن و نابودی کل گردان روس استفاده کنند.
جنگ در حال تکامل است و شواهد نشان میدهند که یک نیروی باهوشتر و چابکتر میتواند قاطعانه دشمن قویتر را با استفاده دقیق از فناوریهای جدید شکست دهد. اهرمی که در این حوزه به سرعت در حال تکامل است سیستمهای رزمی خودمختار هستند که به طور رسمی به عنوان سیستمهای تسلیحات خودکار مرگبار (LAWS) شناخته میشوند که به شکل عامیانه از آن تحت عنوان «رباتهای قاتل» یاد میشود.این سیستمهای بدون نیاز به پرسنل از الگوریتمهای هوش مصنوعی (AI) و یادگیری ماشینی (ML) برای شناسایی و نابود کردن هدف به طور مستقل استفاده میکنند. ایالات متحده، متحدان و شرکای آن علاوه بر رقبا و دشمنان استراتژیکشان در حال تحقیق و توسعه سامانههای هوایی بدون سرنشین و هواپیماهای بدون سرنشین و وسایل نقلیه زمینی و زیر آبی هستند.در حالی که بیشتر این سامانهها هنوز در حال آزمایش هستند برخی از آنها در حال حاضر فعال میباشند (مانند سامانههای فعال لیبی از سال ۲۰۲۰ میلادی). عصر ربات قاتل ممکن است به سختی با موجی از شناخت عمومی آغاز شده باشد و اکنون جهان باید تصمیمات سختی در این حوزه اتخاذ کند: در مورد تمایل به اعمال قوانین و هم چنین شرایطی که تحت آن این سیستمها را برای استفاده مرگبار توانمند میسازد.
جذابیت سیستمهای تسلیحاتی خودکار مرگبار آشکار است: این تسلیحات خطرات متوجه نیروها را کاهش داده و پشتیبانی لجستیکی آن را آسانتر کردهاند، زیرا الزامات ایمن نگه داشتن یک اپراتور میتواند پیچیده و پرهزینه باشد.این تسلیحات هم چنین میتوانند سرعت عمل را (که آشکار شده در اوکراین عاملی بسیار حیاتی است) در شناسایی اعمال کنند و بدون نیاز به ارسال اطلاعات برای فرمانده یک هدف را شناسایی کرده و تصمیمی برای انهدام تقریبا آنی آن اتخاذ کنند و سپس منتظر تایید باشند. این سرعت میتواند تفاوت بین نابود کردن یک هدف با ارزش و تماشای فرار ایمن آن در حالی باشد که سیستم در انتظار دستور آتش است.در نهایت آن که سیستمهای تسلیحاتی خودکار مرگبار در تصمیم گیری آرام، محاسبه گر، بیعاطفه و بیطرف هستند. برای مثال، یک پهپاد را تصور کنید که سیستم موشک پرتاب چندگانه روسی (MLRS) را شناسایی میکند سیستمی که آماده شلیک دهها موشک به سمت یک منطقه مسکونی است.
جستجو در پایگاه داده داخلی آن میتواند وسیله نقلیه را به عنوان یک سیستم MLRS روسی علامتگذاری کند و جستجوی محیطی میتواند خطر آسیب جانبی را رد کند و یک الگوریتم از پیش برنامه ریزی شده درگیری میتواند اعتبار هدف را تایید نماید. یک شلیک از پیش مجاز میتواند بدون تاخیر اجرا شود و جدول زمانی تشخیص تا انهدام هدف تنها میتواند چند ثانیه به طول انجامد.
با این وجود، علیرغم مزایای فراوان در مورد رباتهای قاتل یا سیستمهای تسلیحاتی خودکار مرگبار یک مولفه اخلاقی مهم نیز وجود دارد که باید مورد توجه قرار گیرد. آیا تصمیم گیرندگان ملی و فرماندهان عملیاتی حاضر هستند اجازه دهند یک وسیله نقلیه خودمختار جان یک نفر و یا شاید جان تعداد زیادی از انسانها را بگیرد؟ آیا ما به عنوان یک جامعه با توانمندسازی رباتهای قاتل برای انجام دستورات ارتش خود راحت هستیم؟ یک فرمانده انفرادی مایل به پذیرش چه میزان خطر خطا است؟ در هر حال، جنگ عرصهای همراه با آشفتگی است. رباتهای قاتل قطعا مرتکب اشتباه خواهند شد.رباتهای قاتل به ناچار جان غیرنظامیان بیگناه را میگیرند و باعث وارد شدن آسیبهای جانبی و قتل عام میشوند و احتمالا ناخواسته باعث مرگ نیروهای دوست خواهند شد.
این موارد برخلاف گذشته دیگر مقولاتی علمی – تخیلی نیستند و باید به زودی به آن پرداخته شود. در سطح نهادی، باید یک چارچوب عملیاتی برای قوانین و همچنین ارائه راهنماییهای استراتژیک برای اطمینان بخشی از کاربرد اخلاقی رباتهای قاتل در آینده ایجاد کرد. اکنون زمان تقویت موارد قانونی و حقوقی درباره رباتهای قاتل برای به کارگیری نیروی کشنده آن پیش از درگیری است و تصمیم گیری در این باره در گرماگرم نبرد زمان مناسبی نخواهد بود.سیستمهای تسلیحاتی خودکار مرگبار باید در سختترین سناریوها به طور کامل آزمایش شوند و نتایج آن باید ارزیابی شوند و میزان خطای مورد انتظار باید محاسبه گردد. به عنوان یک اصل مبنایی سیستمهای تسلیحاتی خودکار مرگبار یا رباتهای قاتل باید کمتر از یک اپراتور انسانی خطر ارتکاب خطا داشته باشند. پیش از آغاز درگیری تصمیم تاکتیکی برای استفاده از نیروی کشنده باید توسط یک فرمانده یا نماینده منتخب او گرفته شود.
آن فرمانده باید راهنماییهای ارائه شده توسط تصمیم گیرندگان ملی، محیط عملیاتی و ماهیت حیاتی اهداف فردی را در یک میدان نبرد تاکتیکی ارزیابی کند. فرمانده باید راهنمایی روشنی ارائه دهد که بتوان آن را در الگوریتمی نوشت که در طول یک درگیری خاص استفاده میشود و در نهایت تصمیم میگیرد که ربات قاتل خود درباره زندگی یک انسان به طور مستقل تصمیم گیری کنند یا بایستی راهنمایی و مجوز بیشتری را از فرماندهی درخواست کند.
فرمانده هم چنین باید آمادگی داشته باشد که تصمیم خود را در صورت اشتباه بودن قوانین توجیه کند. در نهایت سیستمهای تسلیحاتی خودکار مرگبار باید به طور گسترده در سختترین سناریوهای آموزشی و تمرینی ممکن مورد آزمایش قرار گیرند.
روشهایی که رباتهای قاتل برای اتخاذ تصمیمات مرگبار خود استفاده میکنند از شناسایی یک هدف و تایید هویت آن گرفته تا کاهش خطر آسیب جانبی باید به صورت عمومی منتشر شوند (همراه با آمارهایی که صحت آن را تایید میکند). شفافیت برای ایجاد اعتماد عمومی به قوانین بسیار مهم است و اعتماد به تواناییهای آن تنها با اثبات قابلیت اطمینان آن از طریق آزمایش و تجزیه و تحلیل دقیق و گسترده ایجاد میشود.نباید از تصمیم گیری درباره استفاده از رباتهای قاتل ترسید بلکه تصمیم گیری درباره آن باید به خوبی و فکر شده صورت گرفته و به طور دقیق مورد بحث قرار گیرد. استفاده از رباتهای قاتل در حالی که در آینده فرصتهای بیسابقه را ارائه میدهند، اما با چالشهای بیسابقهای نیز همراه است که باید برای این موضوع آماده شد.