دیده بان حقوق بشر با انتشار گزارشی اعلام کرد، دولتها برای محافظت هرچه بیشتر جان انسان در مقابل ماشینهای هوشمند مذاکرات گسترده خود را آغاز کردهاند و بر همین اساس نمایندگان 50 کشور جهان این هفته در مقر اصلی سازمان ملل متحد در ژنو گرد هم آمدند تا بزرگترین نشست دیپلماتیک رسمی در مورد سیستمهای تسلیحاتی کشنده خودکار را که از آنها با نام «روباتهای قاتل» هم یاد میشود برگزار کنند و قوانین و مقررات لازم برای جلوگیری از حمله روباتها به انسان را مورد بررسی قرار دهند.
دیپلماتهای حاضر در این نشست معتقدند که انسانها باید تحت کنترل خود زندگی کنند و اگر قرار باشد روباتهای قاتل و خودکار اجازه حضور در میادین نبرد را داشته باشند، آینده بسیار خطرناکی در انتظار ما خواهد بود.
انسان تسلیم روباتها
در نشستی که به منظور محافظت انسان در مقابل روباتها این هفته برگزار شد، دیده بان حقوق بشر به همراه مؤسسه بینالمللی حقوق بشر وابسته به دانشگاه هاروارد گزارش هفده صفحهای را با عنوان «زمینههای همسو: چشم اندازهای مشترک برای معاهده روباتهای قاتل» منتشر کرد. در این گزارش مخالفت دولتها در نشست رسمی کنوانسیون سلاحهای متعارف (CCW) درباره تفویض تصمیم مرگ و زندگی انسان به ماشینها مورد تحلیل قرار گرفت و گفته شد در سپتامبر 2020 که آخرین نشست این کنوانسیون برگزار شد، بسیاری از کشورها پیرامون یک معاهده بینالمللی جدید در مورد ممنوعیت و محدودیت سلاحهای خودران با یکدیگر گفتوگو کردند.
«بونی دوچارتی» پژوهشگر ارشد سلاحها در دیده بان حقوق بشر و مدیرکل مرکز درگیریهای مسلحانه و حفاظت غیرنظامی در مؤسسه حقوق بشر هاروارد در این نشست گفت: «قوانین بینالمللی باید به نحوی گسترش یابد تا امکان کنترل و پاسخگویی در مورد رفتار روباتها وجود داشته باشد و البته، از جان انسانها در مقابل ماشینهای خودکار محافظت شود. نگرانیهای اساسی اخلاقی، حقوقی و امنیتی ناشی از به کارگیری سیستمهای تسلیحاتی خودران مستلزم پاسخ فوری در قالب یک معاهده بینالمللی جدید است.»
لازم به ذکر است سازمان ملل متحد سال 2013 میلادی نشست چندجانبه خود را با حضور 117 کشور و با محوریت روباتهای قاتل برای نخستین بار برگزار کرد و آن زمان، گفته شد 76 کشور انواع ماشینهای خودکار را از جمله هواپیماهای بدون سرنشین دارند و همچنین 16 کشور هم موفق به تولید دستگاههای هوشمندی شدهاند که در جنگهای نظامی برای گرفتن جان انسانها به کار میروند.
در یک دهه گذشته اخبار فراوان در مورد حمایت دولتها از ممنوعیت به کارگیری جنگ افزارهای هوشمند منتشر شد و این مسأله نشان داد تقریباً بین بیشتر کشورها علاقه فراوان به محدودسازی یا ممنوعیت استفاده از سیستمهای تسلیحاتی وجود دارد که بدون دخالت انسان و بهصورت خودکار برای حمله تصمیم میگیرند.
این دستگاهها معمولاً سیستمهای پیچیدهای را شامل میشوند که با استفاده از الگوریتمهای یادگیری ماشینی و هوش مصنوعی، برای حمله در میادین نبرد بهصورت خودکار عمل میکنند و البته میتوانند اثرات غیرقابل پیشبینی و جبرانناپذیری را برجا بگذارند. در این سالها فراخوانهای مختلف برای ممنوعیت استفاده از سیستمهای تسلیحاتی هوشمند مخصوص شناسایی، انتخاب و حمله به انسان نیز ارائه شد و همچنین بسیاری از کشورها قوانینی را برای محدودسازی استفاده از سلاحهای بیومتریک و جمعآوری دادههای انسانی به منظور استفاده در حملات نظامی اعمال کردند.
دوچارتی در سخنرانی این هفته خود در مقر سازمان ملل گفت: «کشته یا مجروح شدن افراد براساس دادههای جمعآوری شده توسط حسگرها و پردازش آن در ماشینهای خودکار از جمله اتفاقاتی است که حریم انسانها را زیر سؤال میبرد. تکیه بر الگوریتمها برای هدف قرار دادن مردم در نهایت میتواند جنگ را از انسانیت خارج کند و نابودی بشر را باعث شود.»
بسیاری از مقامات سیاسی حاضر در نشست هفته جاری پیشنهاد کردند که این قبیل ممنوعیتها به همراه مقررات دقیق باعث میشود انواع مختلف سیستمهای تسلیحاتی هوشمند که در سالهای آتی روی کار میآیند، با کنترل معنادار توسط انسان به کار گرفته شوند.
دوراهی اخلاقی
روباتهای قاتل عضوی از خانواده بزرگ سلاحهای هوشمند خودکار هستند که براساس یک تعریف بینالمللی میتوانند بدون کنترل معنادار انسان تصمیمگیری کنند و وارد عمل شوند.
این خانواده انواع مختلف ماشینها و دستگاههایی را شامل میشود که با سخت افزارها و نرم افزارهای هوشمند خود میتواند بهصورت کاملاً مستقل و بدون نیاز به فرمان انسانها تصمیم بگیرند و البته نکته مهم اینجاست که همه آنها به سلاحهای جنگی مجهز شدهاند. وجه مشترک تمامی این دستگاههای فناوری هوش مصنوعی، یادگیری ماشینی و الگوریتمهای پیچیدهای است که امکان عملکرد بدون دخالت انسان را برای آنها فراهم میکند.
«مایکل هورویتس»، مدیر دانشکده علوم سیاسی دانشگاه پنسیلوانیا که طی سالهای اخیر تحقیقات گستردهای را در مورد سلاحهای خودکار انجام داده است در این خصوص گفت: «تولید «روباتهای قاتل» هنوز نگرانی زیادی برای انسان به وجود نیاورده است و انواع حسگرهایی که امکان عملکرد خودکار را در روباتها فراهم میکنند، روز به روز پیشرفتهتر میشوند ولی این دوراهی اخلاقی وجود دارد که اگر یک روبات به اشتباه جان یک انسان را بگیرد و به او حمله کند، چه کسی مسئول خواهد بود و چگونه میتوان یک ماشین آهنین را که چنین تصمیم اشباهی گرفته است در دادگاه محاکمه کرد؟»
«راینهارد گرینوالد» از سازمان ارزیابی فناوری در پارلمان آلمان بر این باور است که ورود روباتهای خودکار به میدان، فراتر از یک مسأله اخلاقی یا غیراخلاقی است، چرا که این حوزه به قدری پیچیده شده است که بقای بشریت روی کره زمین میتواند به آن مربوط شود. اگر فناوری هستهای، ژنتیک و هوش مصنوعی در روباتهای خودکار با یکدیگر ادغام شوند، خطرناکترین اتفاق در تاریخ کره زمین صورت خواهد گرفت و به همین خاطر انسان باید در تصمیمگیری برای حضور این سربازان آهنین نقش اصلی داشته باشد.
محققان به این نتیجه رسیدهاند که با تولید موفقیتآمیز هواپیماهای بدون سرنشین، به کارگیری جنگ افزارهای روباتیک و سلاحهای خودکار مرحلهای جدید در پیشرفت فناوری در صنایع نظامی را رقم خواهد زد. بر این اساس پیشبینی میشود از هم اکنون تا زمانی که اولین روباتهای کاملاً خودکار وارد میادین نبرد شوند کمتر از یک دهه باقی مانده است. در این میان مجلس عوام بریتانیا تصمیم دارد پاییز امسال با برگزاری کارزار جلوگیری از توسعه روباتهای قاتل، آخرین وضعیت موجود در عرصه جهانی را بررسی کند.
امریکا نیز ارتش بزرگی از خلبانهایی را در اختیار گرفته است که برای هدایت پهپادهای هوشمند دورههای تخصصی دیدهاند و از داخل پایگاههای زمینی، هواپیماهای بدون سرنشین را به قلب مواضع دشمن هدایت میکنند و با وجود این دولتمردان ایالات متحده نیز نشستی را برای ممنوعیت به کارگیری از چنین سلاحهایی در دیگر کشورها پیشبینی کردهاند.
باید توجه داشت که اگرچه روباتهای مسلح صنعت بزرگ با ارزش چند میلیارد دلاری را ایجاد کردهاند، ولی با جدیتر شدن تلاش دولتها در این عرصه، شفافیتها نیز کمتر شده است. مهمترین نکتهای که در این زمینه به نظر میرسد این است که با وجود برگزاری مذاکرات و نشستهای مختلف، تاکنون هیچ گونه توافق بینالمللی برای جلوگیری از به کارگیری سلاحهای مرگبار خودمختار ایجاد نشده است.