استفاده نظامی از هوش مصنوعی یک گام به واقعیت نزدیکتر شد
بررسیهای Intercept نشان میدهد که واحد آفریقایی ارتش آمریکا یا AFRICOM به تازگی اولین قرارداد یک واحد نظامی برای استفاده از فناوریهای اوپنایآی را با شرکت مایکروسافت منعقد کرده است. شرکت اوپنایآی که در ماه ژانویه یکی از شروط منع استفاده نظامی از فناوریهای خود را بی سر و صدا از شرایط استفاده خود حذف کرد میگوید ارتباط مستقیمی با این قرارداد ندارد و سوال خبرنگاران را به مایکروسافت ارجاع داده است.
مایکروسافت پیش از این در یک قرارداد بحث برانگیز ابری که با اعتراض آمازون، بزرگترین ارائه دهنده خدمات ابری، همراه شد به تامین کننده اصلی خدمات ابری برای پنتاگون تبدیل شده است.
واحد آفریقایی ارتش آمریکا به این دلیل مایکروسافت را به عنوان تامین کننده خدمات هوش مصنوعی برگزیده است که خدمات اوپنایآی تنها از طریق پلتفرم ابری این شرکت (Azure) قابل دسترسی است. مایکروسافت با سرمایهگذاری ۱۳ میلیارد دلاری روی اوپنایآی، انحصار فروش قدرت رایانشی به این شرکت و امتیاز ارائه خدمات آن از طریق پلتفرم ابری خود را کسب کرده است.
براساس مستندات منتشر شده در تاریخ ۳۰ سپتامبر که به بررسی اینترسپت رسیده است، درخواست AFRICOM برای قرارداد با مایکروسافت را آژانس سیسیتمهای اطلاعات دفاعی آمریکا تایید کرده است. ارزش این قرارداد چیزی حدود ۱۵ میلیون دلار عنوان شده و AFRICOM دلیل استفاده از خدمات مایکروسافت و زمینه استفاده از آنها را اینگونه عنوان کرده است: «امکان پشتیبانی از بارکاری هوش مصنوعی/یادگیری ماشینی از اهمیت حیاتی برخوردار است. از جمله این خدمات میتوان به جستجو، پردازش زبان طبیعی، [یادگیری ماشینی] و تجزیهتحلیل یکپارچه برای پردازش داده اشاره کرد.»
خدمات اوپنایآی را مایکرسافت در اختیار مشتریان دفاعی قرار میدهد
مایکروسافت در ماه ژوئن ۲۰۲۳ شروع به فروش مدل GPT-4 اوپنایآی به مشتریان دفاعی کرد. همچنین در سال جاری مشخص شد که اوپنایآی نیز رویکرد خود به همکاری نظامی را تغییر داده است و از ماه ژانویه شاهد همکاری امنیت سایبری این شرکت با DARPA هستیم و قرار است از فناوری این شرکت برای طرح جلوگیری از خودکشی کهنه سربازان استفاده شد.
مایکروسافت همچنین در ماه آوریل پیشنهاد استفاده از ابزار مولد تصویر DALL-E را در نرمافزار کنترل و اداره پنتاگون مطرح کرد. با این حال مستندات مربوط به قرارداد AFRICOM اولین موردی است که خرید محصولات اوپنایآی توسط یک واحد نظامی که اهداف نظامی دارد را تایید میکند.
با اینکه مستندات AFRICOM اطلاعات کمی درمورد نحوه استفاده از ابزارهای اوپنایآی ارائه میکند اما به نظر نمیرسد که سابقه تاریک این واحد در کشتار شهروندان، شکنجه و فعالیتهای پشت پرده با چارچوب امنیتی اوپنایآی همخوانی داشته باشد.
دقت پایین ابزارهای هوش مصنوعی و نگرانی از تبعات سهمگین استفاده نظامی
اوپنایآی به تازگی و پس از دستور کاخ سفید به پنتاگون برای تسهیل استفاده از ابزارهای هوش مصنوعی مقالهای را برای تشریح «نگاه به هوش مصنوعی و امنیت ملی» منتشر کرد . براساس این مقاله، اوپنایآی «ارزشهای دموکراتیک»، «حقوق بشر» و «مسئولیتپذیری» را سرلوحه مسیر خود میداند. همچنین براساس این مقاله اوپنایآی معتقد است که استفاده از اپلیکیشنهای هوش مصنوعی در حوزه دولتی و امنیت ملی باید با «نظارت، دستورالعملهای شفاف استفاده و استانداردهای اخلاقی» همراه باشد. با این حال بیان این شرکت را میتوان واکنش مستقیم به ممنوعیت استفاده از ابزارهایی دانست که با «ارزشهای دموکراتیک همخوانی ندارند.»
فعالان این حوزه اما تعریف اوپنایآی از وضعیت ابزارهای هوش مصنوعی را گمراهکننده میدانند و نگران تبعات احتمالی آن هستند. هیدی خلف، پژوهشگر ارشد موسسه AI Now، میگوید: «بسیار نگران کننده است که [AFRICOM] به وضوح به استفاده از ابزار اوپنایآی برای تجزیه تحلیل یکپارچه در پردازش داده برای همسویی با اهداف ماموریتی USAFRICOM اشاره میکند. به ویژه از آنجایی که میگویند این ابزارها طبق باور آنها باعث افزایش بهرهوری، دقت و مقیاسپذیری میشوند. این در حالی است که مشخص شده است این ابزارها بسیار دقت پایینی دارند و به کرات خروجی ساختگی ارائه میکنند. این ادعاها نشان از ناآگاهی نگران کننده تامین کنندگان این فناوری از خطرات بالای این ابزارها در محیط ماموریتی دارد.»
همکاری با واحد آفریقایی ارتش آمریکا شاید آغازگر مسیری باشد که نقش ابزارهای خودکار را در فعالیت بخش نظامی افزایش دهد و این در حالی است که بسیاری نگران ایفای نقش این ابزارها در حوزههایی هستند که شاید پای جان انسانها را به میان بکشد. پیشروی در این مسیر در حالی انجام میگیرد که کاخ سفید در بیانیه رسمی بر همسویی با ارزشهای دموکراتیک تاکید کرده و اینترسپت در گزارش خود به تخلفات متعدد واحد آفریقایی ارتش آمریکا و همچنین ضعف شدید اطلاعاتی این واحد اشاره میکند.