هوش مصنوعی

February 7, 2026
12:31 شنبه، 18ام بهمنماه 1404
کد خبر: 211734

هوش مصنوعی منطق جنگ را بازنویسی می‌کند

منبع: مهر

در نگاه نخست، ایده ماشین‌هایی که بتوانند همانند یک سرباز انسانی بجنگند، تصمیم بگیرند و شلیک کنند، بیش از آن که ریشه در واقعیت داشته باشد، به قلمرو داستان‌های علمی‌تخیلی تعلق داشت.

با این حال، شتاب کم‌سابقه پیشرفت‌های هوش مصنوعی در حوزه‌هایی مانند بینایی ماشین، یادگیری عمیق و پردازش بلادرنگ داده‌های میدانی، این تصور را طی یک دهه گذشته به‌تدریج به واقعیتی عملیاتی نزدیک کرده است. در همین بستر، بازار مشخص و رو به رشدی برای «سامانه‌های تسلیحاتی خودمختار» پدید آمده؛ سامانه‌هایی که با تکیه بر الگوریتم‌های پیچیده، داده‌های حسگرها، پهپادها و شبکه‌های شناسایی را تحلیل کرده و قادر هستند با شناسایی و اولویت‌بندی اهداف بالقوه در شرایطی خاص بدون دخالت مستقیم انسان درگیر شوند.

این تحول، صرفاً یک جهش فناورانه نیست، بلکه بیانگر تغییر پارادایم در طراحی و به‌کارگیری قدرت نظامی محسوب می‌شود. دولت‌ها، مجذوب وعده دستیابی به برتری راهبردی، افزایش سرعت واکنش در میدان نبرد و هم‌زمان کاهش هزینه‌های انسانی و سیاسی جنگ، به‌سرعت به سوی این فناوری‌ها گرایش یافته‌اند و آن‌ها را ابزاری بالقوه تعیین‌کننده در موازنه‌های آینده قدرت و حتی بازتعریف مفهوم بازدارندگی می‌دانند.

تغییر محاسبات جنگ و پیامدهای راهبردی

استقبال دولت‌ها از این فناوری صرفاً ناشی از پیشرفت فنی نیست. تسلیحات خودمختار مبتنی بر هوش مصنوعی، محاسبه دولت‌ها برای ورود به درگیری نظامی را نیز دگرگون می‌کند. هنگامی که تصور شود می‌توان با تکیه بر ماشین‌ها و نه انسان‌ها جنگید، آستانه تصمیم برای توسل به زور کاهش می‌یابد.

این تحول، اگرچه ممکن است از منظر برخی سیاست‌گذاران جذاب به نظر برسد، اما در عمل خطر عادی‌سازی خشونت و گسترش درگیری‌های کم‌هزینه اما مداوم را به همراه دارد. به همین دلیل، بسیاری از تحلیلگران این فناوری‌ها را نه‌تنها ابزار نظامی، بلکه عامل تغییر ماهیت جنگ‌های مدرن می‌دانند.

مسئولیت اخلاقی در عصر الگوریتم‌ها

یکی از جدی‌ترین چالش‌های تسلیحات خودمختار، مسئله مسئولیت در تصمیم‌های مرگ و زندگی است. برخلاف تصور رایج، حتی در پیشرفته‌ترین سامانه‌ها نیز هنوز انسان نقش نهایی را در شلیک ایفا می‌کند. با این حال، هنگامی که سامانه دچار خطا می‌شود، تعیین مسئول واقعی به مسئله‌ای پیچیده تبدیل می‌گردد.

تجربه‌های گزارش‌شده نشان می‌دهد که معمولاً فردی که آخرین تصمیم عملیاتی را گرفته، مسئول نتایج شناخته می‌شود؛ حتی اگر اطلاعات ارائه‌شده از سوی سامانه نادرست یا ناقص بوده باشد. این وضعیت، عدم توازن قدرت در زنجیره فرماندهی را تشدید کرده و عملاً سطوح بالاتر را از پاسخ‌گویی مصون می‌سازد.

منتقدان این فناوری‌ها هشدار می‌دهند که هوش مصنوعی، ذاتاً قادر به درک ارزش اخلاقی جان انسان نیست. در منطق الگوریتمی، افراد به نقاطی در یک شبکه داده تقلیل می‌یابند که باید با سرعت و کارایی حذف شوند. چنین رویکردی، اگرچه ممکن است فرآیند تصمیم‌گیری نظامی را تسریع کند، اما ظرایف انسانی میدان نبرد را نادیده می‌گیرد. انسان می‌تواند در لحظه‌ای بحرانی تشخیص دهد که ادامه یک اقدام مرزهای انسانیت را نقض می‌کند و این قابلیت در سامانه‌های خودمختار تعریف نشده است. از همین روی، واگذاری اختیار بیشتر به این فناوری‌ها، به معنای واگذاری بخشی از مسئولیت اخلاقی جنگ به ماشین است.

رقابت ژئوپلیتیکی و منطق مسابقه تسلیحاتی

با وجود مجموعه گسترده‌ای از دغدغه‌های اخلاقی، حقوقی و انسانی، تقاضا برای تسلیحات خودمختار مبتنی بر هوش مصنوعی نه‌تنها متوقف نشده، بلکه با شتابی فزاینده در حال گسترش است. قدرت‌های بزرگ نظامی، با درک این فناوری‌ها به‌عنوان یکی از مؤلفه‌های تعیین‌کننده جنگ‌های آینده، نگران آن هستند که هرگونه تعلل در سرمایه‌گذاری یا استقرار عملیاتی، به عقب‌ماندن راهبردی از رقبا منجر شود.

از همین روی، منابع مالی، نهادی و پژوهشی قابل توجهی به ادغام سامانه‌های هوشمند در ساختارهای تسلیحاتی موجود اختصاص یافته است. در ایالات متحده، این روند به‌طور مستقیم با حساسیت فزاینده نسبت به پیشرفت‌های چین در حوزه نظامی هوش مصنوعی گره خورده و به‌تدریج رنگ‌وبوی یک رقابت تسلیحاتی نوین و فناورانه به خود گرفته است؛ رقابتی که نه‌تنها بر سر تعداد یا قدرت تخریبی تسلیحات، بلکه بر سر سرعت پردازش، کیفیت الگوریتم‌ها و برتری تصمیم‌سازی ماشینی شکل می‌گیرد. در چنین فضایی، سیاست‌گذاری محتاطانه و مبتنی بر ملاحظات اخلاقی به امری دشوار و حتی پرهزینه تبدیل می‌شود و منطق بازدارندگی فناورانه، که بر پیشی‌گرفتن از رقیب به هر قیمت تأکید دارد، به‌تدریج جایگزین خویشتن‌داری و مسئولیت‌پذیری اخلاقی در حوزه نظامی می‌شود.

بسیاری از دولت‌ها تأکید می‌کنند که در استفاده از این تسلیحات، همواره «کنترل انسانی» حفظ خواهد شد. با این حال، شواهد موجود نشان می‌دهد که این اصل در عمل همیشه رعایت نمی‌شود. در همین راستا، شتاب برای بهره‌برداری از مزیت‌های نظامی، اغلب بر ضرورت تدوین قواعد شفاف غلبه می‌کند. نتیجه آن است که هنجارهای بین‌المللی پیش از آن که تثبیت گردند، توسط واقعیت‌های میدانی کنار زده می‌شوند. این شکاف میان گفتار رسمی و رفتار عملی، خطر استفاده بی‌مهابا از این فناوری‌ها را افزایش می‌دهد.

ضرورت تنظیم‌گری و همکاری چندجانبه

در چنین شرایطی، تسلیحات خودمختار مبتنی بر هوش مصنوعی به یکی از کانونی‌ترین و مناقشه‌برانگیزترین محورهای بحث درباره آینده جنگ و امنیت بین‌المللی تبدیل شده‌اند. ابهام عمیق در خصوص مسئولیت‌پذیری حقوقی و اخلاقی این سامانه‌ها، به‌ویژه در مواقعی که تصمیم‌های مرگ‌بار بر مبنای پردازش‌های الگوریتمی اتخاذ می‌شود، در کنار جذابیت راهبردی آن‌ها برای افزایش سرعت، دقت و برتری عملیاتی، سیاست‌گذاران را در وضعیتی دوگانه و بعضاً متناقض قرار داده است.

از یک سو، دغدغه‌های انسانی، حقوق بشردوستانه و نگرانی از فرسایش معیارهای اخلاقی در جنگ، فشار قابل توجهی برای احتیاط و محدودسازی این فناوری‌ها ایجاد می‌کند و از سوی دیگر، ملاحظات ژئوپلیتیکی، رقابت قدرت‌های بزرگ و ترس از عقب‌ماندن در یک رقابت فناورانه سرنوشت‌ساز، دولت‌ها را به سمت پذیرش و تسریع به‌کارگیری آن‌ها سوق می‌دهد. این تعارض بنیادین نشان می‌دهد که در غیاب همکاری مؤثر چندجانبه و تدوین قواعد مشترک و مورد اجماع، نه‌تنها امکان مهار پیامدهای منفی این فناوری‌ها کاهش می‌یابد، بلکه خطر شکل‌گیری نظمی ناپایدار و پرتنش در عرصه امنیت جهانی نیز به‌طور جدی افزایش خواهد یافت.

معاهده‌ای برای مهار ماشین‌های جنگی

در واکنش به این وضعیت، سازمان‌های مدنی، نهادهای حقوق بشری و بخشی از جامعه بین‌المللی به شکل فزاینده‌ای خواستار تدوین یک معاهده جهانی الزام‌آور شده‌اند که توسعه، استقرار و به‌کارگیری تسلیحات خودمختار مبتنی بر هوش مصنوعی را در چارچوب قواعد روشن حقوقی و اخلاقی قرار دهد. این تلاش‌ها از این درک مشترک نشأت می‌گیرد که خلأ مقرراتی موجود، می‌تواند به عادی‌سازی استفاده از سامانه‌هایی بینجامد و تصمیم به اعمال خشونت را به فرآیندهای الگوریتمی واگذار می‌کنند.

چنین توافقی در صورت تحقق، می‌تواند دولت‌ها را ملزم سازد که اصل «کنترل معنادار انسانی» را نه صرفاً در سطح شعار بلکه در تمام چرخه طراحی، آزمایش و استفاده عملیاتی این تسلیحات رعایت کنند و هم‌زمان، توسعه سامانه‌هایی با سطح بالای استقلال عملیاتی و فقدان امکان مداخله انسانی مؤثر را محدود یا ممنوع سازد. همچنین، هدف اصلی این ابتکارها، توقف یا انکار پیشرفت فناوری نیست، بلکه مهار پیامدهای انسانی و اخلاقی آن و جلوگیری از تبدیل هوش مصنوعی به عاملی بی‌ضابطه در کشتار سازمان‌یافته به شمار می‌رود.

با وجود همه نگرانی‌های ذکر شده، در نهایت، آینده جنگ‌های مدرن بیش از هر زمان دیگری به تصمیم‌هایی گره خورده است که امروز درباره مرز اختیارات ماشین، جایگاه قضاوت انسانی و چارچوب مسئولیت اخلاقی و حقوقی اتخاذ می‌شود و در مقطع کنونی، قدرت‌های نظامی بزرگ جهان، توجه چندانی به اصول اخلاقی مطرح شده از سوی مخالفان توسعه ماشین‌های کشتار ندارند.

  • مشترک شوید!

    برای عضویت در خبرنامه روزانه ایستنا؛ نشانی پست الکترونیکی خود را در فرم زیر وارد نمایید. پس از آن به صورت خودکار ایمیلی به نشانی شما ارسال میشود، برای تکمیل عضویت خود و تایید صحت نشانی پست الکترونیک وارد شده، می بایست بر روی لینکی که در این ایمیل برایتان ارسال شده کلیک نمایید. پس از آن پیامی مبنی بر تکمیل عضویت شما در خبرنامه روزانه ایستنا نمایش داده میشود.

    با عضویت در خبرنامه پیامکی آژانس خبری فناوری اطلاعات و ارتباطات (ایستنا) به طور روزانه آخرین اخبار، گزارشها و تحلیل های حوزه فناوری اطلاعات و ارتباطات را در هر لحظه و هر کجا از طریق پیام کوتاه دریافت خواهید کرد. برای عضویت در این خبرنامه، مشترکین سیمکارت های همراه اول لازم است عبارت 150 را به شماره 201464 و مشترکین سیمکارت های ایرانسل عبارت ozv ictn را به شماره ۸۲۸۲ ارسال کنند. دریافت موفق هر بسته خبری که محتوی پیامکی با حجم ۵پیامک بوده و ۴ تا ۶ عنوان خبری را شامل میشود، ۳۵۰ ریال برای مشترک هزینه در بردارد که در صورتحساب ارسالی از سوی اپراتور مربوطه محاسبه و از اعتبار موجود در حساب مشترکین سیمکارت های دائمی کسر میشود. بخشی از این درآمد این سرویس از سوی اپراتور میزبان شما به ایستنا پرداخت میشود. مشترکین در هر لحظه براساس دستورالعمل اعلامی در پایان هر بسته خبری قادر خواهند بود اشتراک خود را در این سرویس لغو کنند. هزینه دریافت هر بسته خبری برای مشترکین صرفا ۳۵۰ ریال خواهد بود و این هزینه برای مشترکین در حال استفاده از خدمات رومینگ بین الملل اپراتورهای همراه اول و ایرانسل هم هزینه اضافه ای در بر نخواهد داشت.