فناوری اطلاعات

نشست فوری سازمان ملل برای خلع سلاح کردن روبات‌های قاتل

منبع: روزنامه ایران
دیده ‌بان حقوق بشر با انتشار گزارشی اعلام کرد، دولت‌ها برای محافظت هرچه بیشتر جان انسان در مقابل ماشین‌های هوشمند مذاکرات گسترده خود را آغاز کرده‌اند و بر همین اساس نمایندگان 50 کشور جهان این هفته در مقر اصلی سازمان ملل متحد در ژنو گرد هم آمدند تا بزرگ‌ترین نشست دیپلماتیک رسمی در مورد سیستم‌های تسلیحاتی کشنده خودکار را که از آنها با نام «روبات‌های قاتل» هم یاد می‌شود برگزار کنند و قوانین و مقررات لازم برای جلوگیری از حمله روبات‌ها به انسان را مورد بررسی قرار دهند.
دیپلمات‌های حاضر در این نشست معتقدند که انسان‌ها باید تحت کنترل خود زندگی کنند و اگر قرار باشد روبات‌های قاتل و خودکار اجازه حضور در میادین نبرد را داشته باشند، آینده بسیار خطرناکی در انتظار ما خواهد بود.
انسان تسلیم روبات‌ها
در نشستی که به منظور محافظت انسان در مقابل روبات‌ها این هفته برگزار شد، دیده بان حقوق بشر به همراه مؤسسه بین‌المللی حقوق بشر وابسته به دانشگاه هاروارد گزارش هفده‌ صفحه‌ای را با عنوان «زمینه‌های همسو: چشم‌ اندازهای مشترک برای معاهده روبات‌های قاتل» منتشر کرد. در این گزارش مخالفت دولت‌ها در نشست رسمی کنوانسیون سلاح‌های متعارف (CCW) درباره تفویض تصمیم مرگ و زندگی انسان به ماشین‌ها مورد تحلیل قرار گرفت و گفته شد در سپتامبر 2020 که آخرین نشست این کنوانسیون برگزار شد، بسیاری از کشورها پیرامون یک معاهده بین‌المللی جدید در مورد ممنوعیت و محدودیت سلاح‌های خودران با یکدیگر گفت‌وگو کردند.
«بونی دوچارتی» پژوهشگر ارشد سلاح‌ها در دیده بان حقوق بشر و مدیرکل مرکز درگیری‌های مسلحانه و حفاظت غیرنظامی در مؤسسه حقوق بشر هاروارد در این نشست گفت: «قوانین بین‌المللی باید به نحوی گسترش یابد تا امکان کنترل و پاسخگویی در مورد رفتار روبات‌ها وجود داشته باشد و البته، از جان انسان‌ها در مقابل ماشین‌های خودکار محافظت شود. نگرانی‌های اساسی اخلاقی، حقوقی و امنیتی ناشی از به کارگیری سیستم‌های تسلیحاتی خودران مستلزم پاسخ فوری در قالب یک معاهده بین‌المللی جدید است.»
لازم به ذکر است سازمان ملل متحد سال 2013 میلادی نشست چندجانبه خود را با حضور 117 کشور و با محوریت روبات‌های قاتل برای نخستین بار برگزار کرد و آن زمان، گفته شد 76 کشور انواع ماشین‌های خودکار را از جمله هواپیماهای بدون سرنشین دارند و همچنین 16 کشور هم موفق به تولید دستگاه‌های هوشمندی شده‌اند که در جنگ‌های نظامی برای گرفتن جان انسان‌ها به کار می‌روند.
در یک دهه گذشته اخبار فراوان در مورد حمایت دولت‌ها از ممنوعیت به کارگیری جنگ افزارهای هوشمند منتشر شد و این مسأله نشان داد تقریباً بین بیشتر کشورها علاقه فراوان به محدود‌سازی یا ممنوعیت استفاده از سیستم‌های تسلیحاتی وجود دارد که بدون دخالت انسان و به‌صورت خودکار برای حمله تصمیم می‌گیرند.
این دستگاه‌ها معمولاً سیستم‌های پیچیده‌ای را شامل می‌شوند که با استفاده از الگوریتم‌های یادگیری ماشینی و هوش مصنوعی، برای حمله در میادین نبرد به‌صورت خودکار عمل می‌کنند و البته می‌توانند اثرات غیرقابل پیش‌بینی و جبران‌ناپذیری را برجا بگذارند. در این سال‌ها فراخوان‌های مختلف برای ممنوعیت استفاده از سیستم‌های تسلیحاتی هوشمند مخصوص شناسایی، انتخاب و حمله به انسان نیز ارائه شد و همچنین بسیاری از کشورها قوانینی را برای محدودسازی استفاده از سلاح‌های بیومتریک و جمع‌آوری داده‌های انسانی به منظور استفاده در حملات نظامی اعمال کردند.
دوچارتی در سخنرانی این هفته خود در مقر سازمان ملل گفت: «کشته یا مجروح شدن افراد براساس داده‌های جمع‌آوری شده توسط حسگرها و پردازش آن در ماشین‌های خودکار از جمله اتفاقاتی است که حریم انسان‌ها را زیر سؤال می‌برد. تکیه بر الگوریتم‌ها برای هدف قرار دادن مردم در نهایت می‌تواند جنگ را از انسانیت خارج کند و نابودی بشر را باعث شود.»
بسیاری از مقامات سیاسی حاضر در نشست هفته جاری پیشنهاد کردند که این قبیل ممنوعیت‌ها به همراه مقررات دقیق باعث می‌شود انواع مختلف سیستم‌های تسلیحاتی هوشمند که در سال‌های آتی روی کار می‌آیند، با کنترل معنادار توسط انسان به کار گرفته شوند.
دوراهی اخلاقی
روبات‌های قاتل عضوی از خانواده بزرگ سلاح‌های هوشمند خودکار هستند که براساس یک تعریف بین‌المللی می‌توانند بدون کنترل معنادار انسان تصمیم‌گیری کنند و وارد عمل شوند.
این خانواده انواع مختلف ماشین‌ها و دستگاه‌هایی را شامل می‌شود که با سخت‌ افزارها و نرم افزارهای هوشمند خود می‌تواند به‌صورت کاملاً مستقل و بدون نیاز به فرمان انسان‌ها تصمیم بگیرند و البته نکته مهم اینجاست که همه آنها به سلاح‌های جنگی مجهز شده‌اند. وجه مشترک تمامی این دستگاه‌های فناوری هوش مصنوعی، یادگیری ماشینی و الگوریتم‌های پیچیده‌ای است که امکان عملکرد بدون دخالت انسان را برای آنها فراهم می‌کند.
«مایکل هورویتس»، مدیر دانشکده علوم سیاسی دانشگاه پنسیلوانیا که طی سال‌های اخیر تحقیقات گسترده‌ای را در مورد سلاح‌های خودکار انجام داده است در این خصوص گفت: «تولید «روبات‌های قاتل» هنوز نگرانی زیادی برای انسان به وجود نیاورده است و انواع حسگرهایی که امکان عملکرد خودکار را در روبات‌ها فراهم می‌کنند، روز به روز پیشرفته‌تر می‌شوند ولی این دوراهی اخلاقی وجود دارد که اگر یک روبات به اشتباه جان یک انسان را بگیرد و به او حمله کند، چه کسی مسئول خواهد بود و چگونه می‌توان یک ماشین آهنین را که چنین تصمیم اشباهی گرفته است در دادگاه محاکمه کرد؟»
«راینهارد گرینوالد» از سازمان ارزیابی فناوری در پارلمان آلمان بر این باور است که ورود روبات‌های خودکار به میدان، فراتر از یک مسأله اخلاقی یا غیراخلاقی است، چرا که این حوزه به قدری پیچیده شده است که بقای بشریت روی کره زمین می‌تواند به آن مربوط شود. اگر فناوری هسته‌ای، ژنتیک و هوش مصنوعی در روبات‌های خودکار با یکدیگر ادغام شوند، خطرناک‌ترین اتفاق در تاریخ کره زمین صورت خواهد گرفت و به همین خاطر انسان باید در تصمیم‌گیری برای حضور این سربازان آهنین نقش اصلی داشته باشد.
محققان به این نتیجه رسیده‌اند که با تولید موفقیت‌آمیز هواپیماهای بدون سرنشین، به کارگیری جنگ افزارهای روباتیک و سلاح‌های خودکار مرحله‌ای جدید در پیشرفت فناوری در صنایع نظامی را رقم خواهد زد. بر این اساس پیش‌بینی می‌شود از هم اکنون تا زمانی که اولین روبات‌های کاملاً خودکار وارد میادین نبرد شوند کمتر از یک دهه باقی مانده است. در این میان مجلس عوام بریتانیا تصمیم دارد پاییز امسال با برگزاری کارزار جلوگیری از توسعه روبات‌های قاتل، آخرین وضعیت موجود در عرصه جهانی را بررسی کند.
امریکا نیز ارتش بزرگی از خلبان‌هایی را در اختیار گرفته است که برای هدایت پهپادهای هوشمند دوره‌های تخصصی دیده‌اند و از داخل پایگاه‌های زمینی، هواپیماهای بدون سرنشین را به قلب مواضع دشمن هدایت می‌کنند و با وجود این دولتمردان ایالات متحده نیز نشستی را برای ممنوعیت به کارگیری از چنین سلاح‌هایی در دیگر کشورها پیش‌بینی کرده‌اند.
باید توجه داشت که اگرچه روبات‌های مسلح صنعت بزرگ با ارزش چند میلیارد دلاری را ایجاد کرده‌اند، ولی با جدی‌تر شدن تلاش دولت‌ها در این عرصه، شفافیت‌ها نیز کمتر شده است. مهم‌ترین نکته‌ای که در این زمینه به نظر می‌رسد این است که با وجود برگزاری مذاکرات و نشست‌های مختلف، تاکنون هیچ گونه توافق بین‌المللی برای جلوگیری از به کارگیری سلاح‌های مرگبار خودمختار ایجاد نشده است.

​​