کشورها برای مقرراتگذاری هوش مصنوعی آبان ماه در انگلستان گرد هم میآیند
انگلستان میخواهد نشست بینالمللی مقرراتگذاری برای هوش مصنوعی را در آبان ماه سال جاری (نوامبر) به منظور بررسی چالشها و خطرات ناشی از این فناوری برگزار کند.
در این نشست تاثیرگذاری هوش مصنوعی بر ابعاد مختلف زندگی مورد بحث قرار خواهد گرفت. امنیت ملی، حریم خصوصی و تاثیرات هوش مصنوعی بر نسل آینده از اصلیترین عناوینی است که به آن اشاره شده است.
گردهمایی کشورها برای قانونگذاری
نخستوزیر انگلستان و دیگر رهبران جهان قرار است در رویدادی که ماه نوامبر در پارک بلچلی انگلستان برگزار میشود، گرد هم آمده و درباره احتمالات و خطرات ناشی از هوش مصنوعی گفتوگو کنند.
نمایندگان مجلس انگلستان هشدار دادهاند تهدید بالقوهای که هوش مصنوعی برای زندگی بشر ایجاد میکند باید کانون توجه مقررات دولتی قرارگیرد.
نگرانیها در مورد رفاه عمومی و امنیت ملی از جمله چالشهایی است که اعضای کمیته علم، نوآوری و فناوری آن را بیان کردند. این موارد باید توسط وزرا پیش از میزبانی انگلستان از اولین اجلاس جهانی در پارک بلچلی مورد بررسی قرار بگیرد.
گرگ کلارک، رئیس کمیته و نماینده محافظهکار پارلمان اعلام کرد که به شدت از این نشست استقبال میکند اما هشدار داده، دولت ممکن است لازم ببیند که فوریت بیشتری نشان دهد تا اطمینان حاصل شود قوانین بالقوه به زودی منسوخ نخواهند شد. علت این هشدار و حساسیت این است که قدرتهایی مانند ایالات متحده، چین و اتحادیه اروپا قوانین خود را در مورد قانونگذاری هوش مصنوعی در سطح جهانی در نظر خواهند گرفت.
چالشهای هوش مصنوعی
۱۲ چالشی که طبق گفته کمیته باید به آنها رسیدگی شود عبارت است از:
۱– تهدید وجودی: بنا بر هشدارهای برخی از کارشناسان که هوش مصنوعی را تهدیدی بزرگ برای زندگی انسان معرفی کردهاند، باید که مقررات مطرح شده از امنیت ملی محافظت کرده و خطرات این تهدید را کاهش دهد.
۲– تعصب: هوش مصنوعی ممکن است زمینهساز ایجاد سوگیریهای جدید یا تداوم یکسری از تعصبها باشد.
۳– حریم خصوصی: اطلاعات حساس در مورد افراد یا مشاغل میتواند برای آموزش انواع مدلهای هوش مصنوعی استفاده شود. در این صورت امکان درز اطلاعات و سوءاستفاده از آنها وجود دارد. مسائل مربوط به حریم خصوصی باید در تدوین مقررات لحاظ شود.
۴– ارائه نادرست: مدلهای زبانی مانند ChatGPT ممکن است مطالبی ارائه دهد که رفتار، دیدگاه شخصی و شخصیت افراد را گمراه کند.
۵– داده: دادههای زیادی برای توسعه و توانمندتر کردن مدلهای هوش مصنوعی احتیاج است. چگونگی کسب و بهرهمندی از این اطلاعات باید طبق استاندارهای تعریف شده انجام شود.
۶– قدرت محاسباتی: توسعه مدلهای قدرتمند هوش مصنوعی نیازمند تجهیز به توانایی محاسباتی بزرگ است.
۷– شفافیت: مدلهای هوش مصنوعی اغلب در توضیح چرایی نتیجهای که ارائه میدهند یا اطلاعاتی که کسب کردهاند مشکل دارند.
۸– کپی رایت: هوش مصنوعی برای تولید متن، عکس و حتی ویدئو از محتوایی استفاده میکنند که قبلا ساخته شده است، بنابراین باید در تدوین قوانین به حفاظت از منبع اصلی و جلوگیری از تضعیف صنایع خلاق توجه شود.
۹– مسئولیت: سیاستها باید مشخص کنند که در صورت استفاده آسیبزا و خطرناک از هوش مصنوعی، توسعه دهندگان مسئول هستند یا ارائه دهندگان. همچنین باید توضیح داده شود در صورتی که هیچ یک از طرفین مسئولیت اتفاق رخ داده را نپذیرند چه نهادی نقش رسیدگی را عهده دار است.
۱۰– اشتغال: سیاستمداران باید مشاغلی را که از هوش مصنوعی متاثر شدهاند و تحت تاثیر قرار خواهند گرفت پیشبینی کنند و شرایط را برای همه کسبوکارها مناسب سازند.
۱۱– آشکار بودن: کدهایی که ساز و کار مدلهای هوش مصنوعی بر اساس آن انجام میپذیرد میتواند آشکارا در دسترس قرار بگیرد تا مقررات قابل اعتمادتری تدوین شده و شفافیت و نوآوری ارتقا یابد.
۱۲– هماهنگی بینالمللی: تدوین هر گونه مقرراتی باید یک تعهد بینالمللی باشد و اجلاس نوامبر باید تا حد امکان پذیرای طیف وسیعی از کشورها بوده و از آنها استقبال کنند.
قابلیت شگفتانگیز هوش مصنوعی در شبکه ملی اطلاعات
آقای کلارک، علاوهبر اظهار نظر درباره تدوین مقررات، در رابطه با مراقبتهای هوش مصنوعی به عنوان هیجان انگیزترین فرصت برای این فناوری تاکید کرد.
در حال حاضر از این فناوری در حوزه پزشکی و درمان برای خواندن اشعه ایکس و اسکن و غیره استفاده میشود. اما محققان در تلاش هستند تا بررسی کنند که چگونه میتوان از این سطح فراتر رفت و از این فناوری برای پیشبینی شرایط مخرب در بلندمدت مانند بیماری دیابت استفاده کرد.
او همچنین گفت که میتوان از هوش مصنوعی برای کمک به «شخصیسازی فزاینده درمان» استفاده کرد. اما نگرانیهایی را در مورد تعصبات احتمالی که در دادههای آموزشی هر مدل هوش مصنوعی وجود دارد تکرار کرد.
کلارک در ادامه افزود:«اگر در حال انجام تحقیقات پزشکی روی یک نمونه خاص یا اقلیت قومی هستید، دادههایی که هوش مصنوعی طبق آن آموزش دیدهاند ممکن است توصیههایی به معنای نادرست بودن فرآیند و اطلاعات ارائه کنند.»
دولت، خواهان رویکرد متناسب است
این کمیته اعلام کرد که مجموعهای از توصیههای نهایی را در موعد مقرر منتشر خواهد کرد.
این کشور میخواهد هر گونه قانون پیشنهادی در رابطه با هوش مصنوعی را در پارلمان بعدی که در سپتامبر، پس از تعطیلات تابستاتی آغاز میشود، در اختیار نمایندگان مجلس قرار دهد.
سخنگوی دولت با اشاره به بودجه اولیه ۱۰۰ میلیون پوندی که برای توسعه ایمنسازی مدلهای هوش مصنوعی در انگلستان در نظر گرفته شده است، گفت:«این بودجه به رویکرد متناسب و سازگار با مقررات متعهد است.»
در آخر نیز نگاهی به استفاده نسلهای بعدی از این فناوری شد. آنها چنین گفتند که هوش مصنوعی قابلیت تغییر و تاثیرگذاری بر جنبههای مختلف زندگی را دارد و ما در برابر آیندگان مسئولیم تا خطرات این فناوری را مهار کنیم.