پیشنهاد دانشمندان برای سناریو آخرالزمانی: دکمه مرگ هوش مصنوعی
مقالهای از دانشگاه کمبریج میگوید برای جلوگیری از پتانسیل نابودگر هوش مصنوعی باید به فکر دکمههای مرگ و قفلی بود که در سختافزار این سیستمها جای بگیرد. سیستمهای مشابهی در حال حاضر از پرتاب بی اجازه سلاحهای هستهای جلوگیری میکنند. محققان همچنین یک سیستم ردیابی بینالمللی را برای چیپهای هوش مصنوعی پیشنهاد میکنند تا از دسترسی افراد و کشورهای غیرمجاز و سو استفاده از آنها جلوگیری شود.
به گفته محققان چند مساله باعث میشود تا این سازوکار در عمل قابل اجرا باشد. اول اینکه سیستمهای بزرگ هوش مصنوعی به زیرساخت گستردهای متشکل از هزاران پردازنده نیاز دارند و مخفی کردن این زیرساخت دشوار است. دو، تنها چند شرکت هستند که پردازندههای مورد نیاز را تولید میکنند و مساله سوم نیز محدودیتهای زنجیره عرضه در صنعت نیمهرسانا است که همگی امکان نظارت بر تمام زیرساخت را فراهم میکند.
این مقاله (Computing-Power-and-the-Governance-of-AI) که صدای چندین نهاد آکادمیک و افرادی از اوپنایآی را منعکس میکند میگوید بهترین راه برای جلوگیری از سو استفاده، تنظیمگری در مرحله سختافزار این سیستمها است.
محققان میگویند:«نقطه رایانش هوش مصنوعی جای کارآمدی برای مداخله است: غیرقابل شناسایی است، قابل جداسازی و کمیسازی است و به واسطه یک زنجیره عرضه بسیار متمرکز تولید میشود.»
از آنجایی که آموزش مدلهای کارآمد و گسترده به زیرساخت عظیمی متشکل از هزاران پردازنده گرافیکی نیاز دارد، درنتیجه مخفی کردن چنین زیرساختی بسیار دشوار است. همچنین چیپهای مورد استفاده در هوش مصنوعی نیز ساخته چند شرکت از جمله انویدیا، AMD و اینتل هستند و سیاستگذارانن به همین دلیل میتوانند فروش این کالاها را به افراد یا کشورهای نگران کننده به خوبی محدود کنند.
این فاکتورها در کنار محدودیتهایی که زنجیره عرضه نیمهرسانا دارد، باعث میشود تا سیاستگذاران درک بهتری از چگونگی و نحوه استفاده از هوش مصنوعی داشته باشند و اجازه دسترسی را کنترل کرده و حتی مجازاتی برای سو استفاده در نظر بگیرند.
محققان میگویند برای نظارت بر هوش مصنوعی بهتر است یک دفتر ثبت بینالمللی برای فروش چیپهای هوش مصنوعی ایجاد شده و سیر حرکت آنها پس از تولید و در مرحله اجرا، حتی پس از خروجی از کشور اولیه، زیر نظر باشد. چنین دفتر ثبتی میتواند شناساگرهای خاصی را در داخل هر چیپ قرار داده و از قاچاق چیپها جلوگیری کند.
محققان همچنین پیشنهاد کردهاند که کلید مرگی برای چیپها و زیرساخت در نظر گرفته شود تا بتوان از استفادههای تبهکارانه جلوگیری کرد.
به گفته آنها: «در شرایطی که سیستمهای هوش مصنوعی خطرات فاجعهباری را به دنبال دارند، خوب است که رگولاتورها بتوانند استفاده درست از چیپهای هوش مصنوعی را تایید کنند یا فعالیت آنها (یا بخشی از آنها) را در صورت نقض قوانین متوقف کنند.»
محققان در ادامه این مقاله میگویند: «چیپهای اصلاح شده هوش مصنوعی میتوانند از چنین اقداماتی پشتیبانی کنند تا بتوان از راه دور استفاده درست از آنها را شهادت داد و در صورت نیاز متوقفشان کرد.»
«همراه پردازندههای تخصصی که روی چیپ قررا میگیرند میتوانند به یک جواز دیجیتالی با امضای کریپتوگرافیک مجهز شوند و بروزرسانی سیاستهای استفاده را از طریق بروزرسانی Firmware در آن اعمال کرد. زمان جواز روی چیپ را رگولاتور میتواند به صورت دورهای تمدید کند و تولید کننده چیپ هم وظیفه مدیریت آن را داشته باشد. در این حال پایان جواز یا جواز نادرست باعث غیرفعال شدن یا کاهش عملکرد چیپ خواهد شد.»