پنتاگون شرکت انتروپیک را به لغو قراردادهای دولتی تهدید کرد
یک مقام ارشد وزارت دفاع آمریکا به خبرگزاری اکسیوس اعلام کرده است که پنتاگون به رهبری پیت هگست تهدید به قطع روابط تجاری با شرکت هوش مصنوعی انتروپیک کرده و شاید این شرکت را بهعنوان «ریسک زنجیره تامین» معرفی کند. در حال حاضر اپلیکیشن هوش مصنوعی انتروپیک (Claude) تنها هوش مصنوعی مجاز در بخش دادههای محرمانه دولتی است و نهایی شدن این تهدید ممکن است ضربه بزرگی به این استارتآپ هوش مصنوعی با ارزشگذاری ۳۸۰ میلیارد دلاری وارد کند.
اکسیوس تصریح میکند که در صورت عملی شدن این تهدید نه تنها انتروپیک قرارداد دولتی خود را از دست خواهد داد (که البته در مقایسه با درآمد چندمیلیارد دلاری شرکت اهمیت چندانی ندارد)، بلکه در صورت معرفی به عنوان «ریسک زنجیره تامین»، ضربه بزرگی را متحمل میشود و تمام دیگر شرکتهایی که با وزارت دفاع ایالات متحده همکاری دارند باید مدل هوش مصنوعی انتروپیک را از سیستمها و فرایندهای خود حذف کنند و گرچه قراردادهای دولتی ضربه بزرگی نیستند، اما حذف از شرکتهای طرف قرارداد وزارت دفاع ضربه سنگینی محسوب میشود.
این خبر در حالی منتشر شده که شرکت انتروپیک در ماههای اخیر با موفقیت چشمگیر مدل هوش مصنوعی خود در بخش برنامهنویسی رشد قابل توجهی را تجربه کرده اما به نظر رویکرد مدیرعامل این شرکت در قبال استفاده از هوش مصنوعی کلاود در بخش نظامی باعث تنش با پنتاگون شده است.
گرچه در حال حاضر نیز هوش مصنوعی انتروپیک در بخشهای نظامی استفاده میشود اما داریو آمودی، مدیرعامل و بنیانگذار انتروپیک، اعلام کرده که با استفاده از این هوش مصنوعی در بخش سلاحهای خودکار مخالف است. آمودی همچنین اعلام کرده که از بکارگیری فناوری شرکتش برای جاسوسی از شهروندان آمریکایی مخالف است.
این اظهارنظر برخلاف خواستههای وزارت دفاع آمریکا است که قصد دارد از فناوری هوش مصنوعی در تمامی بخشهای قانونی استفاده کند و حالا طبق گزارشی از فورچن در حال مذاکره با رقبای انتروپیک از جمله گوگل، متا و xAI است.
با این حال دولت آمریکا نیز در این فرایند احتمالا متحمل هزینههای سنگینی خواهد شود و اکسیوس به نقل از مقام ارشد وزارت دفاع میگوید، جداسازی زیرساختهای مبتنی بر کلود از سیستمهای نظامی «بسیار پرهزینه و دردسرساز» است. کلود که به عنوان قهرمان ایمنی در میان ابزارهای هوش مصنوعی شناخته میشود، در حال حاضر تنها مدل هوش مصنوعی است که در شبکههای طبقهبندیشده و محرمانه نظامی آمریکا مورد استفاده قرار دارد و مقامات پنتاگون پیشتر از توانمندیهای آن تمجید کردهاند.
بر اساس گزارشها، از این مدل حتی در عملیات موسوم به «یورش مادورو» در ماه ژانویه نیز استفاده شده است.
اختلاف میان انتروپیک و پنتاگون به شرایط استفاده نظامی از مدل کلاود از ماهها پیش آغاز شده و به گفته منابع مطلع، تنشهایی را به دنبال داشته است.
داروی آمودی در اظهارنظرها و در مذاکرات بر لزوم تعیین چارچوبهای اخلاقی برای استفاده از هوش مصنوعی تاکید کرده و اعلام کرده حاضر است برخی محدودیتهای فعلی را تعدیل کند، اما میخواهد اطمینان حاصل شود ابزارهایش برای جاسوسی گسترده از شهروندان آمریکایی یا توسعه سلاحهایی که بدون دخالت انسان شلیک میکنند، استفاده نشود.
در مقابل، پنتاگون این شروط را «بیش از حد» توصیف کرده و معتقد است وجود «مناطق خاکستری» در تعریف کاربردها، اجرای چنین محدودیتهایی را غیرعملی میکند.
در سالهای اخیر و با رشد چشمگیر هوش مصنوعی و توانمندیهای آن، شرکتهای فعال در این حوزه محدودیتهای سیاستی خود در زمینه استفاده نظامی از هوش مصنوعی را کاهش دادهاند و همکاریهای مختلفی را میان اوپنایآی و دولت آمریکا و همچنین شرکتهایی دیگری چون متا و گوگل شاهد بودیم. گوگل نیز سال گذشته بی سروصدا قید منع استفاده نظامی از فناوریهای خود را حذف کرد.
نگرانیهای نظارتی و حریم خصوصی
با وجود نرمش شرکتهای فناوری نسبت به استفادههای نظامی و نظارتی، منتقدان یادآور میشوند که قوانین نظارت جمعی ایالات متحده پیش از ظهور گسترده هوش مصنوعی تدوین شدهاند و استفاده از هوش مصنوعی میتواند توانایی نهادهای امنیتی را در تحلیل کلاندادههای شهروندان (از پستهای شبکههای اجتماعی تا اطلاعات مجوزهای حمل سلاح) بهطور چشمگیری افزایش دهد و از این رو به محدودیتهایی در این رابطه نیاز است.
سخنگوی انتروپیک اعلام کرده که این شرکت در حال گفتوگوهای «سازنده و با حسن نیت» با وزارت دفاع است (جالب اینکه در این گزارش از وزارت دفاع به عنوان Department of War یا وزارت جنگ یاد شده) و همچنان متعهد به استفاده مسئولانه از هوش مصنوعی پیشرفته در حوزه امنیت ملی باقی خواهد ماند.
قراردادی که پنتاگون تهدید به لغو آن کرده، ارزشی تا سقف ۲۰۰ میلیون دلار دارد؛ رقمی که در مقایسه با درآمد سالانه ۱۴ میلیارد دلاری انتروپیک اهمیت چندانی نخواهد داشت. با این حال بخش دوم تهدید وزارت دفاع است که میتواند این شرکت را با زیان جدی روبهرو کرده و بخش مهمی از مشتریان آن را مجبور به جایگزین کردن با دیگر فناوریها کند.
طبق اعلام قبلی شرکت انتروپیک، هشت شرکت از ده شرکت بزرگ آمریکا از مدل کلاود این شرکت استفاده میکنند و بنابراین الزام شرکتهای طرف قرارداد با پنتاگون به کنار گذاشتن این ابزار میتواند موجی از بازتنظیمهای فنی و حقوقی در صنایع مختلف را رقم بزند و قراردادهای بزرگی را معلق کند.
دولت آمریکا در مرکز تحولات هوش مصنوعی
یک مقام ارشد دولت آمریکا گفته مدلهای رقیب هنوز در برخی کاربردهای تخصصی دولتی «کمی عقبتر» هستند، که تغییر ناگهانی را دشوار میسازد. در عین حال، برخورد سختگیرانه پنتاگون با انتروپیک میتواند پیام روشنی برای سایر شرکتهای هوش مصنوعی به دنبال داشته باشد.
گرچه دولت هنوز نقش پررنگی در درآمد شرکتهای هوش مصنوعی ندارد اما روابط دولتی باعث شده تا چندین شرکت مهم عصر هوش مصنوعی در مرکز توجه قرار گرفته و رشد خیرهکنندهای را تجربه کنند و همواره قراردادهای پنتاگون به عنوان یک نماد اعتبار بزرگ برای شرکتهای فناوری محسوب شده است (و البته در مواردی نیز به انتقاد کاربران یا کارکنان دامن زده است.)
علاوه بر انتروپیک، شرکت اوپنایآی نیز در سالهای اخیر بر تقویت روابط خود با دولت تمرکز کرده و نمونه شخصیسازی شدهای از چتبات خود را به عنوان ChatGPT Gov برای استفادههای دولتی ارائه کرده است. این شرکت همچنین نقش کلیدی در پروژه زیرساختی استارگیت دارد که دولت ترامپ از آن به عنوان نمادی برای پیشتازی آینده آمریکا در بخش زیرساخت یاد میکند و خبر این طرح با وعده سرمایهگذاری ۵۰۰ میلیارد دلاری با حضور دونالد ترامپ علنی شد.
دیگر شرکت مهمی که در عصر هوش مصنوعی نه تنها رشد فزاینده را تجربه کرده بلکه نامش در بسیاری از فعالیتهای نظارتی و نظامی اخیر دولت آمریکا به گوش میخورد شرکت Palantir است که ابزارهای ویژهای برای دستهبندی، تحلیل و گردآوری متمرکز داده را در اختیار دولت این کشور قرار داده و همچنین همکاری نزدیکی با ارتش اسرائیل دارد.
