رباتهای قاتل شکل جنگ را تغییر میدهند
هوش مصنوعی در جامعه مدرن با حضور فزاینده این فناوری در جنگهای معاصر نیز همراه شده است. روند تسلیحاتیسازی هوش مصنوعی، شباهت زیادی به رقابت تسلیحاتی هستهای در دوران جنگ سرد دارد.
تأثیر هوش مصنوعی اکنون بر تمامی جنبههای زندگی بشر تسری یافته است. در طول دهه گذشته، استفاده از هوش مصنوعی به طرز چشمگیری افزایش یافته و کاربردهای این فناوری شامل نرمافزارهای تشخیص چهره، خودروهای خودران، موتورهای جستجو و نرمافزارهای ترجمه میشود. این استفادههای پذیرفتهشده از هوش مصنوعی در جامعه مدرن با حضور فزاینده این فناوری در جنگهای معاصر نیز همراه شده است. روند تسلیحاتیسازی هوش مصنوعی، شباهت زیادی به رقابت تسلیحاتی هستهای در دوران جنگ سرد دارد.
تسلیحات هستهای اکنون جای خود را به سیستمهای تسلیحاتی خودکار مبتنی بر هوش مصنوعی دادهاند. با این حال، جامعه جهانی، سازمان ملل متحد و قوانین بینالمللی همچنان در تلاشاند تا بهروز شده و بر استفاده از این سیستمهای خودکار نظارت و مقرراتی اعمال کنند؛ تلاشی که هنوز با سرعت بالای تغییرات در صحنهی نبردهای امروزی همگام نیست. با این وجود، جامعهی بینالمللی از سال ۲۰۱۲ به تأثیر هوش مصنوعی بر جنگهای معاصر توجه نشان داده و مجموعهای از اسناد در مورد استفاده از سیستمهای تسلیحاتی خودکار منتشر شده است.
پیشرفت و استفاده از تسلیحاتی که در طول درگیری نظامی، قابلیت انجام عملیات به صورت خودمختار را دارند، اکنون به نقطه تمرکز دولتها و شرکتهای فناوری تبدیل شده است. در سال ۲۰۱۷، نامهای از مؤسسه غیرانتفاعی آینده زندگی (Future Life Institute) خطاب به سازمان ملل متحد و با امضای ۱۲۶ مدیرعامل و بنیانگذار شرکتهای هوش مصنوعی و رباتیک از دولتها خواست تا از رقابت تسلیحاتی برای توسعه سیستمهای تسلیحاتی خودکار جلوگیری کنند. با این حال، چارچوب قانونی بینالمللی مشخصی برای رسیدگی به این نگرانیها در خصوص استفاده از هوش مصنوعی به ویژه در زمینه درگیریهای نظامی، وجود ندارد. تنها چارچوب قانونی فعلی مرتبط با هوش مصنوعی که در ماده ۲۶ میثاق بینالمللی حقوق مدنی و سیاسی ذکر شده، صرفاً استفاده از هوش مصنوعی را به حق حریم خصوصی مربوط میداند و چارچوبی برای فناوریهای نظامی مبتنی بر هوش مصنوعی از جمله سیستمهای تسلیحاتی خودکار، حملات سایبری پیشرفته و پهپادها وجود ندارد.
تسلیحات خودکار چیست؟
تعاریف متعددی برای سیستمهای تسلیحاتی خودکار وجود دارد، اما وزارت دفاع بریتانیا (MoD) و وزارت دفاع ایالات متحده (DoD) دو تعریف شاخص درباره این ابزار که مبتنی بر هوش مصنوعی هستند، ارائه کردهاند. در سال ۲۰۱۱، وزارت دفاع بریتانیا، سیستمهای تسلیحاتی خودکار را به عنوان «سیستمهایی قادر به درک اهداف و جهتگیریهای سطح بالا، یعنی درک شرایطی مشابه انسان و اتخاذ اقدامات مناسب برای تحقق وضعیت مطلوب» تعریف کرد. در مقابل، وزارت دفاع آمریکا در سال ۲۰۲۳ رویکرد دیگری اتخاذ و این سیستمها را به عنوان سیستمهایی تعریف کرد که «پس از فعال شدن، قادر به انتخاب و درگیر شدن با اهداف بدون نیاز به دخالت بیشتر یک اپراتور انسانی هستند». گزارش ۲۰۱۲ دیدهبان حقوق بشر و بخش بینالمللی حقوق بشر دانشگاه هاروارد نیز تعریف مشابهی برای جامعه بینالمللی ارائه داد و سیستمهای تسلیحاتی خودکار را به عنوان «تسلیحات کاملاً خودکار که میتوانند بدون مداخله انسانی، اهداف را انتخاب کنند و با آن درگیر شوند» توصیف کرد.
همچنین مرکز صلاحیت قدرت هوایی مشترک ناتو (JAPCC) نیز مفهوم اتوماسیون را تا حد «آگاهی و خودمختاری» گسترش داده است. نمونههایی از تسلیحات خودکار شامل سیستمهای دفاعی مانند گنبد آهنین رژیم صهیونیستی و سیستم دفاع هوایی «MANTIS» آلمان و همچنین تجهیزات محافظ فعال مانند «LEDS-150» سوئدی میشوند که حاصل ادغام فناوری هوش مصنوعی با تسلیحات جنگی هستند.
با وجود همه تعاریف ارائه شده، به زعم برخی کارشناسان، یک تعریف جدید از سیستمهای تسلیحاتی خودکار مبتنی بر هوش مصنوعی باید شامل تسلیحات خودکاری باشد که در شرایط غیرنظامی نیز مورد استفاده قرار میگیرند؛ مانند سیستم «Super aEgis II» کره جنوبی که به عنوان یک دستگاه نظارتی در زمان صلح در مرز کره جنوبی و شمالی به کار میرود.
با این حال، چالش اصلی در این است که تعاریف سیستمهای تسلیحاتی خودکار باید از منظر تحولات آینده نیز تطبیق یابند. این تعاریف باید نه تنها شامل سیستمهایی باشند که تاکنون در تعاریف گنجانده نشدهاند، بلکه باید به سیستمهایی که ممکن است در آینده ظهور کنند نیز بپردازند. بهویژه، جامعهی بینالمللی باید بر سر تعریفی توافق کند که بتواند الگوریتمهای ورودی شناختی شبیه انسان با توانایی تصمیمگیری مشابه انسان را در برگیرد.
با وجود این نیاز، جامعه بینالمللی هنوز بر سر قوانین مربوط به سیستمهای تسلیحاتی خودکار به توافق نرسیده است. کنوانسیون سازمان ملل متحد درباره سلاحهای متعارف (CCW) دارای پروتکل اصلاحی ویژهای، مصوب ۱۹۸۶ است که توسط گروه کارشناسان دولتی (GGE) بر آن نظارت میشود و این گروه به صورت سالانه برای بررسی اجرای پروتکلهای این کنوانسیون و مسائل مرتبط با تسلیحات جلسه تشکیل میدهند. آخرین نشست گروه کارشناسان دولتی که در ماه می ۲۰۲۳ برگزار شد، بدون پیشرفت ملموسی در مورد سیستمهای تسلیحاتی خودکار به پایان رسید، زیرا اعضای کارگروه تخصصی نتوانستند بر سر هیچگونه تدابیر قانونی به توافق برسند.
گزارش پیشنویس این نشست نیز نتوانست چارچوب حقوقی مشخصی در این زمینه ارائه دهد. با این حال، این گزارش بر نیاز به کنترل انسانی در سیستمهای تسلیحاتی خودکار تأکید دارد و همچنین به مقررات مرتبط با توسعه این تسلیحات نیز اشاره میکند. ۵۲ کشور با صدور بیانیهای از این پیشنویس حمایت کردند، اما تأکید کردند که این پیشنویس حداقل استاندارد بوده و به چارچوب حقوقی بسیار جامعتر و مؤثرتری در این حوزه نیاز است. در نشست می ۲۰۲۳، گروه کارشناسان دولتی تصمیم گرفت تا بحثهای طولانیتری را در مورد فناوریهای نوظهور چون سیستمهای تسلیحاتی خودکار در ماههای مارس و اوت ۲۰۲۴ برگزار کند. با اینکه ممکن است تحولات معنادارتری در بحثهای جدید این گروه رخ دهد، اما تاکنون چارچوب حقوقی مشخصی برای تنظیم توسعه و استفاده از این ابزار فناورانه نوظهور بهدست نیامده است.
رقابت کشورها برای توسعه رباتهای قاتل
در حالی که نهادهای بینالمللی در تکاپو برای تنظیم مقررات جهانی برای سیستمهای تسلیحاتی خودکار به سر میبرند، رقابت شدیدی برای توسعه این فناوری در میان قدرتهای جهانی جریان دارد. ولادیمیر پوتین، رئیسجمهور روسیه، در این خصوص اظهار کرده است: «ملتی که در زمینه هوش مصنوعی پیشتاز باشد، فرمانروای جهان خواهد شد.»
کارشناسان معتقدند که پیشرفت هوش مصنوعی در جنگهای مدرن، روابط میان قدرتهای بزرگ همچون ایالات متحده، چین و روسیه و همچنین صنعت فناوری خصوصی را به شکل چشمگیری دگرگون خواهد کرد. در همین راستا، چین اعلام کرده که قصد دارد با اختصاص ۱۵۰ میلیارد دلار بودجه به رهبر جهانی فناوری هوش مصنوعی تبدیل شود؛ این در حالی است که روسیه در بازه زمانی ۲۰۲۱ تا ۲۰۲۳ حدود ۱۸۱ میلیون دلار و ایالات متحده ۴.۶ میلیارد دلار در این زمینه سرمایهگذاری کردهاند.
گزارش گروه تحلیلی «جینز» در سال ۲۰۱۹، نشان داد که طی دهه آینده، بیش از ۸۰ هزار پهپاد نظارتی و حدود ۲ هزار پهپاد تهاجمی در سراسر جهان فروخته خواهد شد. در این گزارش اعلام شد که دولت بریتانیا پهپادهای مجهز به موشک را به کار گرفته و قصد دارد تا سال ۲۰۲۴ مبلغی بالغ بر ۴۱۵ میلیون پوند برای توسعه پهپادهای حفاظتی هزینه کند. عربستان سعودی نیز به عنوان یک بازیگر جدید در عرصه پهپادها، در سال ۲۰۲۳ حدود ۶۹ میلیارد دلار (معادل ۲۳ درصد از بودجهی ملی خود) را به حوزه دفاعی اختصاص داده است. این کشور همچنین برنامه دارد یک صندوق ۴۰ میلیارد دلاری برای سرمایهگذاری در حوزه هوش مصنوعی ایجاد کند که آن را به بزرگترین سرمایهگذار جهانی در این زمینه تبدیل خواهد کرد.
با افزایش چشمگیر سرمایهگذاری دولتها در توسعه پهپادهای خودکار مبتنی بر فناوری هوش مصنوعی، احتمال دارد این فناوریها به جایی برسند که پهپادها بدون نیاز به دخالت انسانی و به صورت کاملاً خودکار در حین درگیری نظامی به اتخاذ تصمیم بپردازند؛ امری که به عقیده بسیاری از منتقدان، میتواند راههای صلحآمیز حل درگیریهای نظامی را تحت تأثیر قرار دهد. فناوری پهپادی از زمانی که در جنگ کوزوو در سال ۱۹۹۹ توسط ناتو برای شناسایی مواضع استراتژیک پنهان صربها استفاده شد تا استفاده آمریکا از آن بلافاصله پس از حملات ۱۱ سپتامبر، بهطور چشمگیری پیشرفت کرده است. پس از اینکه اعلام شد یک پهپاد «ISR» آمریکایی مکان اسامه بن لادن را شناسایی کرده، ارتش ایالات متحده بهطور فزایندهای از پهپادها با قابلیتهای تسلیحاتی گوناگون استفاده کرد و از سال ۲۰۱۰ تا ۲۰۲۰ بیش از ۱۴ هزار عملیات پهپادی را فقط در افغانستان انجام داد.
بر اساس گزارشهای آماری، ایالات متحده، بریتانیا و رژیم صهیونیستی همچنان بزرگترین استفادهکنندگان از پهپادها هستند و زرادخانههای آنان به صورت مداوم در حال گسترش است. ایالات متحده و بریتانیا بیش از یک دهه از پهپادهای مسلح مانند «Predator» و «Reaper»، متعلق به شرکت آمریکایی «General Atomics»، بهره بردهاند. طبق اعلام پایگاه داده بریتانیایی «Drone Wars»، این کشور در طول چهار سال حضور نظامی در سوریه در خلال سالهای ۲۰۱۴ تا ۲۰۱۸، بیش از ۲۴۰۰ بار از پهپادهای «Reaper» در مأموریتهای استراتژیک استفاده کرده است؛ رقمی که معادل دو مأموریت در روز محسوب میشود. همچنین پنتاگون برآورد کرده که تا سال ۲۰۳۵، حدود ۷۰ درصد نیروی هوایی ایالات متحده از هواپیماهای هدایتشونده از راه دور تشکیل خواهد شد. همزمان، رژیم اشغالگر قدس نیز پهپادهای مسلح خود را توسعه داده و آنها را در نوار غزه برای نظارت و حملات بی امان به شهروندان فلسطینی به کار گرفته است.
پنتاگون برآورد کرده که تا سال ۲۰۳۵، حدود ۷۰ درصد نیروی هوایی ایالات متحده از هواپیماهای هدایتشونده از راه دور تشکیل خواهد شد
علاوه بر موارد ذکر شده، به طور کلی فناوری پهپادی بهسرعت در میان نیروهای نظامی در سراسر جهان در حال گسترش است. تقریباً همه کشورهای عضو ناتو اکنون قابلیت استفاده از پهپادها را در درگیریهای نظامی دارند. در پنج سال گذشته، ترکیه و پاکستان نیز برنامههای تولید پهپاد خود را تدوین و اجرا کردهاند. چین هم اکنون پهپادهای «Wing Loong» و سری «CH» خود را به چندین کشور از جمله امارات متحده عربی، مصر، عربستان سعودی، نیجریه و عراق عرضه میکند.
در چنین شرایطی حتی برخی از گروههای غیردولتی نیز از پهپادها بهره میگیرند. به عنوان مثال، در طول یک سال اخیر، حزبالله نیز از پهپادهای شناسایی برای انجام برخی عملیات علیه اشغالگران صهیونیست استفاده کرده و مبارزان حماس نیز از اکتبر ۲۰۲۳ و پس از عملیات طوفان الاقصی از پهپادها علیه این رژیم بهره میگیرند.
بنابراین، میتوان نتیجه گرفت که استفاده از هوش مصنوعی در جنگها به سرعت در حال گسترش است. گزارشها حاکی از آن است که اوکراین پهپادهای دوربرد خود را به هوش مصنوعی مجهز کرده است. این پهپادها میتواند به صورت خودکار بر زمین نظارت و اهداف نظامی را شناسایی کنند و ارتش اوکراین در مواردی نیز از آنها برای حملات موفق به اهدافی از جمله پالایشگاههای روسیه استفاده کرده است.
بر اساس گزارشهای منتشر شده، رژیم صهیونیستی نیز علاوه بر توسعه پهپادهای نظارتی و عملیاتی از یک سیستم هوش مصنوعی پیشرفته، موسوم به «لاوندر» در درگیری غزه استفاده کرده؛ ابزاری که موفق به شناسایی ۳۷ هزار هدف در نوار غزه شده است. کارشناسان معتقدند که بر همین اساس، میتوان تجاوز کنونی صهیونیستها به نوار غزه و جنوب لبنان را نخستین «جنگ هوش مصنوعی» توصیف کرد. با این حال، هنوز هیچ شواهدی مبنی بر استفاده از سیستمهای تسلیحاتی خودکار بدون کنترل و نظارت انسانی در درگیریهای اخیر نیز موجود نیست.
با افزایش نگرانیها در مورد ظهور «رباتهای قاتل»، استفاده از هوش مصنوعی در جنگها سوالات اخلاقی و حقوقی جدیتری را برای بسیاری از متخصصان مطرح کرده است؛ زیرا ممکن است در بسیاری از موارد پهپادها قادر به تمایز بین نیروهای نظامی و غیرنظامیان نباشند.
از همین روی، افزایش ادغام هوش مصنوعی در پهپادها و سایر سیستمهای تسلیحاتی خودکار، خطرات بیشماری را در زمینه تصمیمگیری در درگیریها نظامی بدون کنترل و نظارت انسانی به وجود میآورد. استفاده از خشونت در طول تقابلهای نظامی، ممکن است بر اساس واکنشهای غریزی ماشینهایی تعیین شود که قادر به درک پیچیدگیهای اخلاقی جنگ و تصمیمگیری درست نیستند. در چنین شرایطی پیشبینی اینکه قوانین تا چه حد میتواند با این پیشرفتهای فناورانه همراه شوند یا حتی آنها را متوقف سازند، بسیار دشوار است، اما چارچوب حقوقی فعلی قطعاً فاقد شفافیت و دوراندیشی لازم برای حل این معضل جهانی است.
تقویت توان جنگ سایبری با کمک هوش مصنوعی
در کنار سیستمهای تسلیحاتی خودکار و پهپادها، استفاده از هوش مصنوعی برای تقویت توان جنگ سایبری نیز در طول سالهای اخیر به یکی از ابعاد مهم درگیریهای نظامی تبدیل شده است. هوش مصنوعی در جنگ سایبری میتواند ابزارهایی را فراهم آورد که به کشورها اجازه میدهد به شکلی مؤثر و سریع به اهداف سایبری و زیرساختهای حیاتی و اطلاعاتی دشمنان دسترسی پیدا کنند و عملیاتهای پیچیده سایبری را با دقت بیشتری انجام دهند.
دانشگاه جورج تاون با انتشار مقالهای در ماه جولای ۲۰۲۴ به بررسی یکی از موارد شاخص استفاده از هوش مصنوعی در حملات سایبری، یعنی حملات سایبری کره شمالی به زیرساختهای کره جنوبی پرداخت. بر اساس متن این مقاله کره جنوبی در سالهای اخیر، با تهدیدات سایبری فزایندهای از سوی کره شمالی مواجه بوده که در عملیات خود از فناوریهای پیشرفته مبتنی بر هوش مصنوعی برای حملات پیچیده استفاده کرده است. در سال ۲۰۲۳، نهادهای عمومی کره جنوبی با افزایش بیسابقهای در حملات سایبری مواجه شدند، بهطوری که تعداد تلاشهای روزانه به ۱.۶۲ میلیون مورد رسید. این حملات، بخشهای مختلفی از جمله نهادهای عمومی، صنایع دفاعی و شرکتهای خصوصی را هدف قرار میدهند. سئول در پاسخ به این تهدیدات، در سال ۲۰۲۴ استراتژی امنیت سایبری ملی خود را بازبینی و تقویت کرد تا با افزایش همکاریهای بینالمللی، بهرهگیری از فناوریهای نوین و استحکامبخشی به دفاع سایبری خود، مقابله بهتری با تهدیدات داشته باشد.
این توانمندیها در زمینه جنگ سایبری با قابلیتهای پیشرفتهای همچون نفوذ به شبکههای حساس دشمن، شناسایی نقاط ضعف سایبری و ایجاد اختلال در سامانههای ارتباطی و اطلاعاتی دشمن همراه است. از طرفی، این فناوریها میتوانند برای تقویت دفاع سایبری نیز به کار روند و توانایی مقابله با حملات پیشرفته را افزایش دهند. این امر باعث میشود که جنگ سایبری مبتنی بر هوش مصنوعی به یک بخش حیاتی در امنیت ملی و راهبردهای دفاعی کشورهای قدرتمند تبدیل شود.
بنابراین میتوان نتیجه گرفت که استفاده از هوش مصنوعی در جنگ سایبری نهتنها توان تهاجمی کشورها را در میدان نبرد دیجیتال افزایش داده، بلکه ساختارهای امنیتی آنها را نیز متأثر ساخته است. فناوریهای مبتنی بر هوش مصنوعی مانند یادگیری ماشین و شبکههای عصبی امکان تقویت قدرت حملات و از سوی دیگر شناسایی و خنثیسازی حملات سایبری پیچیده را با سرعت و دقت بالاتری فراهم میکنند. به این ترتیب، الگوریتمهای پیشرفته میتوانند شبکههای حساس دشمن را بهطور مستقل شناسایی کرده و به آنها نفوذ کنند. در جنگهای آینده، این فناوری بدون نیاز به دخالت مستقیم انسانی، آسیبپذیریها را تشخیص داده و از آنها برای تخریب سامانههای کلیدی یا به دست آوردن اطلاعات حیاتی بهرهبرداری میکند.
به عقیده بسیاری از کارشناسان نظامی، این پیشرفتها، تهدیدات سایبری را به نوعی از ابزار نظامی تبدیل کردهاند که بدون درگیری فیزیکی، میتواند ضربات جدی به زیرساختهای حیاتی و حتی توان دفاعی کشورها وارد کند. از همین روی، کشورهای پیشرو در عرصه هوش مصنوعی به دنبال ایجاد ابزارهای تهاجمی قدرتمندی هستند که با کمترین دخالت انسانی به تضعیف ساختارهای حیاتی دشمن بپردازند. برای مثال، برخی از کشورها سامانههای هوش مصنوعی ویژهای را توسعه دادهاند که میتواند بهصورت بلادرنگ و با کمترین ردپای دیجیتال، به سیستمهای ارتباطی دشمن نفوذ کند و اطلاعات حساس را رهگیری کند یا حتی پیامهای جعلی را برای اختلال در فرماندهی و کنترل نیروهای دشمن ارسال کند.
به عقیده بسیاری از کارشناسان نظامی، این پیشرفتها، تهدیدات سایبری را به نوعی از ابزار نظامی تبدیل کردهاند که بدون درگیری فیزیکی، میتواند ضربات جدی به زیرساختهای حیاتی و حتی توان دفاعی کشورها وارد کندبا عنایت به این مسئله که هوش مصنوعی قادر به انطباق سریع با روشهای جدید حمله و دفاع سایبری است، در بلند مدت خطراتی مانند از دست رفتن کنترل بر عملیاتهای سایبری افزایش مییابد. به عنوان نمونه، هوش مصنوعی ممکن است در برخی موقعیتهای بحرانی به اشتباه سامانههای غیرنظامی را به عنوان هدف شناسایی کند یا در مواقع حساس، تصمیمگیریهایی انجام دهد که عواقب پیشبینینشده و مخربی داشته باشد.
نگاهی به آینده هوش مصنوعی در جنگ
به زعم اکثر کارشناسان، هوش مصنوعی در جنگهای آینده، به یکی از ارکان اصلی درگیریهای نظامی تبدیل خواهد شد و بدون شک درگیریهای نظامی دیگر به روشهای سنتی و جنگهای کلاسیک صورت نخواهد گرفت. ابزارهای مبتنی بر هوش مصنوعی، امکان هدایت از راه دور را فراهم میکنند، به گونهای که سربازان بدون نیاز به حضور فیزیکی در میدان نبرد، قادر به انجام عملیات نظامی خواهند بود. استفاده از پهپادهای خودکار، سیستمهای تسلیحاتی هوشمند و تکنیکهای جنگ سایبری، ابزارهایی هستند که در آیندهای نزدیک هوش مصنوعی را به یکی مهمترین ارکان میادین نبرد تبدیل خواهند کرد.
هوش مصنوعی قادر است با تحلیل سریع دادههای میدان جنگ، توانایی تشخیص سریع اهداف و اتخاذ تصمیمات تاکتیکی بدون دخالت انسان، امکان پیروزی با کمترین تلفات انسانی و بیشترین دقت را فراهم سازد. با این حال، این پیشرفتها هرچند در آیندهای نزدیک موجب افزایش کارآمدی عملیات نظامی و تغییر شکل و ماهیت درگیریهای این حوزه میشوند، اما به دلیل کاهش نیاز به حضور انسان در میدان نبرد، خطرات اخلاقی و حقوقی بسیاری را نیز به همراه دارند.
در نهایت میتوان چنین نتیجه گرفت که ظهور هوش مصنوعی در عرصههای نظامی باعث میشود کشورها نه تنها در جنگ فیزیکی، بلکه در عرصه سایبری نیز به رقابتی تهاجمی و بزرگ دست بزنند. هوش مصنوعی در جنگهای آینده به ابزار راهبردی بدل خواهد شد که میتواند بدون دخالت انسانی، عملیاتهای پیچیده و خطرناک را انجام دهد و این مسئله به طور کلی چهره جنگ را متحول خواهد ساخت.
دست خالی قوانین بینالملل در مقابل فناوریهای جدید نظامی
پرسشهای اخلاقی و انسانی پیرامون درگیریهایی که توسط الگوریتمها و ماشینها بدون دخالت انسانی هدایت میشوند، همچنان بیپاسخ هستند. استفاده از پهپادهای خودکاری که خود به تنهایی سلاح محسوب نمیشوند و پلتفرمهایی برای حمل سلاح هستند، بهطور مشخص تحت قوانین بینالمللی تنظیمگری نشده است. اگرچه استفاده از پهپادها نیز مشمول اصول کلی حقوق بینالملل در خصوص تمامی تسلیحات، شامل قواعد تمایز، تناسب و ممنوعیت حملات کورکورانه است، اما فقدان قوانین خاص در این زمینه، نظارت و تنظیمگری آنها را بسیار دشوار کرده است.
از همین روی، اکثر کارشناسان بر این باورند که جامعه بینالمللی باید یک چارچوب حقوقی بینالمللی در این زمینه ایجاد کند تا همواره کنترل و نظارت انسانی بر سیستمهای تسلیحاتی خودکار را تضمین نماید و این سیستمها به صورت مستقل اهداف نظامی را در طول درگیری هدف قرار ندهند.
آخرین گزارش گروه کارشناسان دولتی سازمان ملل در این زمینه که در سال ۲۰۲۳ منتشر شد، بر این نکته تأکید دارد که تدابیر قانونی برای محدود کردن استفاده از «سیستمهای تسلیحاتی مبتنی بر فناوریهای نوظهور که پس از فعالسازی قادر به شناسایی، انتخاب، ردیابی و انهدام اهداف، بدون دخالت بیشتر انسانی هستند»، امری ضروری است. سیستمهای مذکور به عنوان یک نوآوری بیسابقه در تسلیحات نظامی، نیازمند یک چارچوب حقوقی بینالمللی جدید، قوی و در عین حال انعطافپذیر است تا بتواند با سرعت خیرهکننده پیشرفتهای فناوری همراه باشد.
از سوی دیگر، همکاریهای بینالمللی برای تنظیم مقررات و ایجاد سازوکارهای نظارتی مؤثر بر کاربردهای هوش مصنوعی در زمینه حملات سایبری نیز امری ضروری است. بی شک بدون وجود چارچوب حقوقی و نظارتی مؤثر، استفاده از این فناوری در حوزه جنگ سایبری ممکن است منجر به درگیریهای گستردهتری در عرصه دیجیتال و افزایش آسیبپذیری زیرساختهای کلیدی کشورها شود. بنابراین، میتوان نتیجه گرفت که توان تخریبی بالا و امکان ایجاد اختلالات گسترده در زیرساختهای حیاتی، مؤلفههایی هستند که قطعاً حملات سایبری مبتنی بر هوش مصنوعی را در زمره فناوریهای حساس و نیازمند تنظیمگری جهانی قرار میدهند.