هوش مصنوعی

January 8, 2024
13:10 دوشنبه، 18ام دیماه 1402
کد خبر: 157238

کشورهای مختلف چه مقرراتی برای هوش مصنوعی در سال ۲۰۲۴ دارند؟

منبع: پیوست

سالی که گذشت هوش مصنوعی از یک حوزه بکر قانون‌گذاری به تیتر اول اخبار تبدیل شد. این جهش را تا حدی مدیون ChatGPT و فراگیر شدن آن هستیم که باعث شد مردم هم با توانایی‌ها و محدودیت‌های هوش مصنوعی بیشتر آشنا شوند.

در بحث سیاست‌گذاری نیز سال مهمی را پشت سر گذاشتیم: اول از همه اتحادیه اروپا روی قانون مهم هوش مصنوعی به توافق رسید، جلسات سنای آمریکا و دستور اجرایی رئیس جمهور این کشور را شاهد بودیم و چین هم مقررات خاصی را برای چیزهایی مثل الگوریتم‌های پیشنهاد‌دهنده در نظر گرفت.

اگر سال ۲۰۲۳ را سال توافق قانون‌گذاران روی یک چشم‌انداز بدانیم، ۲۰۲۴ سالی است که سیاست‌ها به اقدام تبدیل می‌شوند. در ادامه این مطلب انتظارات مجله MIT Technology Review از آینده قانون‌گذاری هوش مصنوعی در سال پیش رو را مطالعه می‌کنید.

ایالات متحده

هوش مصنوعی در سال ۲۰۲۳ به مباحث سیاسی ایالات متحده ورود کرد و چیزی فراتر از بحث مذاکره را نیز مشاهده کردیم. اقداماتی را هم در قالب دستور اجرایی بایدن در اواخر ماه اکتبر پس از درخواست روز افزون برای شفافیت بیشتر و استاندارد‌های جدید شاهد بودیم.

با این اقدام، رایحه‌ای از سیاست هوش مصنوعی ایالات متحده را مشاهده کردیم: سیاستی دوست‌دار صنعت هوش مصنوعی با تاکید بر بهترین عملکرد‌ها، اتکا بر آژانس‌های مختلف برای تنظیم‌گری و قانون‌گذاری متفاوت برای هر بخش از اقتصاد.

روندی که از ۲۰۲۳ آغاز شد در سال پیش رو قدرت می‌گیرد و بسیاری از جزئیات دستور اجرایی بایدن به قانون تبدیل می‌شوند. همچنین صحبت‌های زیادی درمورد موسسه امنیت هوش مصنوعی آمریکا به گوش می‌رسد که احتمالا مسئول اجرای بیشتر این سیاست‌ها است.

از نگاه کنگره اما هنوز مسیر مشخصی را شاهد نیستیم. چاک شومر، رهبر اکثریت سنا، می‌گوید قوانین جدیدی به دستور اجرایی اضافه می‌شوند. تا همین امروز هم چندین قانون پیشنهادی برای جوانب مختلف AI مثل شفافیت، دیپ‌فیک‌ها و مسئولیت‌پذیری پلتفرم ارائه شده است اما مشخص نیست کدام یکی از این پیشنهادات به تصویب می‌رسند و آیا اصلا قانونی در سال جدید تصویب خواهد شد.

آنچه می‌توان انتظارش را داشت رویکردی است که انواع و کاربرد‌های مختلف هوش مصنوعی را براساس میزان خطر دسته‌بندی می‌کند. رویکردی شبیه به قانون هوش مصنوعی اتحادیه اروپا. کریس مسرول، رئیس Frontier Model Forum، از نهاد‌های لابی صنعتی می‌گوید موسسه ملی استاندادر‌ها و فناوری چارچوبی را در این حوزه پیشنهاد کرده که هر بخش و آژانس باید آن را به اجرا بگذارد.

مساله روشن دیگری نیز وجود دارد: انتخابات سال ۲۰۲۴ ایالات متحده احتمالا رنگ و بوی مقررات هوش مصنوعی را مشخص می‌کند. با توجه به تاثیر هوش مصنوعی مولد بر پلتفرم‌های شبکه اجتماعی و اطلاعات وارونه، می‌توان بحث‌هایی را پیرامون نحوه جلوگیری از تاثیر و خطرات این تکنولوژی در مناظره‌های انتخاباتی انتظار داشت.

اروپا

اتحادیه اروپا به تازگی روی قانون هوش مصنوعی، اولین قانون کامل AI در جهان، به توافق رسید.

پس از بحث داغ و توافق رسمی کشور‌های اروپایی و پارلمان اتحادیه اروپا در نیمه اول سال ۲۰۲۴، این قانون به زودی در دست اجرا قرار می‌گیرد. در خوش‌بینانه‌ترین حالت، ممنوعیت یک سری کاربرد‌های هوش مصنوعی را باید تا پایان سال جاری انتظار داشت.

درنتیجه صنعت هوش مصنوعی در سال ۲۰۲۴ باید خود را برای مقررات جدید آماده کند. اگرچه بیشتر اپلیکیشن‌های هوش مصنوعی از این قانون تاثیر نمی‌پذیرند اما شرکت‌های ارائه دهنده مدل‌ها و اپلیکیشن‌های بنیادی به عنوان عاملی «پرخطر» برای حقوق اساسی قملداد می‌شوند و مواردی که در بخش‌های آموزش، درمان و پلیس استفاده می‌شوند باید استاندارد‌های اتحادیه اروپا را رعایت کنند. در اروپا، پلیس نمی‌تواند در مکان‌های عمومی، مگر با تایید دادگاه برای اهداف خاصی مثل تروریسم، جلوگیری از قاچاق انسان یا پیدا کردن فردی گم شده، از هوش مصنوعی استفاده کند.

کاربرد‌اهی دیگر هوش مصنوعی مثل ایجاد پایگاه‌های داده تشخیص چهره‌ای شبیه به Clearview AI یا استفاده از تکنولوژی تشخیص احساس در محل کار یا مدارس به طور کامل در اروپا ممنوع می‌شوند. قانون هوش مصنوعی اتحادیه اروپا شرکت‌ها را به شفاف‌سازی درمورد نحوه توسعه مدل‌ها ملزم می‌کند و آنهایی که از سیستم‌های پرخطر هوش مصنوعی استفاده می‌کنند مسئولیت بیشتری در قبال آسیب‌های ناشی از آن خواهند داشت.

شرکت‌های توسعه دهنده مدل‌های بنیادی، محصولاتی مثل GPT-4 که دیگر ابزارها براساس آنها ساخته می‌شوند، باید در بازه یک سال پس از اجرایی شدن این قانون از مقررات جدید پیروی کنند. دیگر شرکت‌های تکنولوژی دو سال برای پیروی از قوانین زمان دارند.

شرکت‌های هوش مصنوعی برای پیروی از قوانین باید توجه بیشتری به نحوه ساخت‌ سیستم‌ها داشته باشند و مستندات دقیقی برای بازبینی تهیه کنند. این قانون شرکت‌ها را ملزم می‌کند تا شفافیت بیشتری درمرود نحوه آموزش مدل‌ها ارائه کنند و اطمینان حاصل شود که سیستم‌های پرخطر هوش مصنوعی برای به حداقل رساندن موضوعاتی مثل سوگیری، به اندازه کافی براساس داده‌های فراگیر آموزش دیده و آزمایش شوند.

اتحادیه اروپا بر این باور است که بیشتر مدل‌های قدرتمند هوش مصنوعی از جمله GPT-4 از اوپن‌ای‌آی و Gemini از گوگل، ممکن است خطری «سیستماتیک» را برای شهروندان به دنبال داشته باشند و درنتیجه باید بیشتر برای پیروی از استاندارد‌های اتحادیه اروپا تلاش کنند. شرکت‌ها باید برای ارزیابی و جلوگیری از خطرات تدابیری را در نظر گرفته و امنیت سیستم‌ها را تضمین کنند. همچنین این شرکت‌ها باید رخداد‌های جدی را گزارش داده و جزئیاتی از مصرف انرژی خود را گزارش کنند. وظیفه ارزیابی سیستم‌ها و تشخیص اینکه آیا مدل‌ آنها در این دسته قرار می‌گیرد یا خیر بر عهده شرکت‌ها است.

شرکت‌های هوش مصنوعی متن‌باز از پیش‌نیاز‌های شفافیت این قانون مستثنی هستند مگر اینکه مدل‌هایی به قدرتمندی GPT-4 ارائه کنند. عدم پیروی از این مقررات جریمه‌های سنگین و یا ممنوعیت محصولات در اتحادیه اروپا را به دنبال دارد.

اتحادیه اروپا همچنین در حال آماده سازی طرح اولیه قانون دیگری به نام AI Liability Directive یا راهبرد مسئولیت‌پذیری هوش مصنوعی است که قرار است جبران خسارت افرادی را که درنتیجه هوش مصنوعی آسیب می‌بینند تضمین کند. مذاکرات در این رابطه همچنان در جریان است و در سال ۲۰۲۴ انتظار صحبت‌های بیشتری در این باره را داریم.

برخی از دیگر کشور‌ها نیز رویکرد آزادتری را در پیش گرفته‌اند. برای مثال انگلستان، میزبان آزمایشگاه هوش مصنوعی گوگل دیپ‌مایند، می‌گوید در کوتاه‌مدت قصد قانون‌گذاری هوش مصنوعی را ندارد. با انی حال، شرکت‌های خارج از اتحادیه اروپا، دومین اقتصاد بزرگ جهان، نیز باید در صورت تمایل به فعالیت در این بلوک از قوانین قاره سبز پیروی کنند.

انو برادفورد، استاد حقوق دانشگاه کلمبیا، این مساله را «اثر بروکسل» می‌نامد که براساس آن اتحادیه اروپا با پیش‌قدم شدن در قانون‌گذاری به استاندارد اصلی جهان تبدیل می‌شود و به روند توسعه و فعالیت هر بخش شکل می‌دهد. اتحادیه اروپا با یک رژیم سفت و سخت محافظت از داده (GDPR) به این هدف دست یافت. حالا بخش‌های مختلف جهان، از کالیفرنیا تا هند، از سیستمی مشابه پیروی می‌کنند و اروپا امیدوار است در هوش مصنوعی نیز به چنین هدفی دست پیدا کند.

چین

تا به اینجای کار مقررات هوش مصنوعی چین پاره‌پاره و تدریجی هستند. این کشور به جای قانون‌گذاری کامل هوش مصنوعی، هرگاه محصولی در مرکز توجه قرار می‌گیرد یک قانون جداگانه برای آن معرفی می‌کند. به همین دلیل چین دسته مقرراتی برای خدمات پیشنهاد الگوریتمی، دسته دیگری برای دیپ‌فیک‌ها و دسته دیگری هم برای هوش مصنوعی مولد دارد.

نقطه قوت چنین رویکردی این است که پکن می‌تواند سریعا به خطرات نوپا در روند پیشرفت تکنولوژی، هم برای کاربران و هم دولت، واکنش نشان دهد. اما مشکل اینجاست که رویکرد بلند‌مدتی برای توسعه وجود ندارد.

شرایط احتمالا در سال جدید تغییر می‌کند. در ژوئن ۲۰۲۳، شورای دولتی جمهوری خلق چین، بالاترین نهاد دولتی، اعلام کرد که «یک قانون هوش مصنوعی» در حال طی کردن روند قانون‌گذاری است. این قانون هم شبیه به قانون هوش مصنوعی اروپا همه چیز را تحت پوشش خود می‌گیرد. با این حال با توجه به گستره عظیم این قانون نمی‌توان گفت که دقیقا چه مدت دیگری باید در انتظار آن باشیم. شاید پیش‌نویس آن در سال ۲۰۲۴ ارائه شود و شاید هم زمان بیشتری نیاز باشد. با این حال عجیب نیست اگر در میان مدت رگولاتور‌های اینترنت چین مقررات تازه‌ای را برای اداره ابزارهای پرطرفدار یا محتوای جدید معرفی کنند.

تا به امروز اطلاعات کمی درمورد این قانون منتشر شده است اما یکی از مستنداتی که به ما در پیش‌بینی این قانون کمک می‌کند مربوط به پژوهشگران آکادمی علوم اجتماعی چین، یک موسسه تحقیقاتی دولتی است که نسخه «پیشنهاد تخصصی» خود از قانون هوش مصنوعی چین را در ماه آگوست سال گذشته منتشر کرد. در این مستند یک «اداره ملی هوش مصنوعی» برای نظارت بر توسعه هوش مصنوعی در چین پیشنهاد شده و خواستار «گزارش مسئولیت اجتماعی» مستقل درمورد مدل‌های بنیادی به صروت سالانه است و یک «لیست منفی» از نواحی پرخطر هوش مصنوعی تهیه می‌کند که شرکت‌ها بدون اجازه دولت حتی اجازه تحقیقات در این حوزه نخواهند داشت.

در حال حاضر نیز شرکت‌های هوش مصنوعی چین با مقررات بسیاری روبرو هستند. هر مدل بنیادی باید پیش از عرضه در جامعه چین در دولت این کشور ثبت شود (تا پایان سال ۲۰۲۳، ۲۲ شرکت چینی مدل‌های هوش مصنوعی خود را ثبت کرده‌اند.)

این یعنی هوش منصوعی در چین دیگر شبیه به غرب وحشی نیست. اما دقیقا مشخص نیست که این مقررات چگونه در عمل اجرا می‌شوند. شرکت‌های هوش مصنوعی مولد باید در سال پیش رو راهکاری را برای پیروی از قانون، به ویژه از لحاظ بررسی‌های ایمنی و نقض IP در نظر بگیرند.

در عین حال، از آنجایی که شرکت‌های هوش مصنوعی خارجی هیچ تاییدیه‌ای برای عرضه محصولات خود رد چین دریافت نکرده‌اند (و احتمالا در آینده نیز دریافت نمی‌کنند)، محیط تجاری داخل چین حامی شرکت‌های داخلی است. شاید این مساله به برگ برنده‌ای در مقابل شرکت‌های غربی بدل شود اما در عین حال مخل رقابت است و کنترل دولت بر بیان آنلاین را بیشتر می‌کند.

دیگر بخش‌های جهان

انتظار می‌رود که در سال جدید مقررات بیشتری را در دیگر بخش‌های جهان نیز مشاهده کنیم. یکی از مناطق مهم آفریقا است. ملودی ماسونی، مسئول سیاست‌های مرکز اروپیایی مدیریت سیاست توسعه‌ای، می‌گوید اتحادیه آفریقا احتمالا یک استراتژی هوش مصنوعی را اوایل سال ۲۰۲۴ برای این قاره منتشر می‌کند و قرار بر این است که سیاست‌ کشور‌ها نیز پیرو این استراتژی باشد و در عین پیشبرد رقابت، مصرف‌کنندگان آفریقایی را از غول‌های تکنولوژی غربی محافظت کند.

بعضی کشور‌ها از جمله رواندا، نیجریه و آفریقای جنوبی تا همین امروز هم پیش نویسی از استراتژی‌های هوش مصنوعی ملی ارائه کرده‌اند و به دنبال ساخت برنامه‌های آموزشی، قدرت رایانش و سیاست‌های دوست‌دار صنعت برای حمایت از شرکت‌ها هستند. نهاد‌های بین‌المللی مثل سازمان ملل، سازمان توسعه و همکاری اقتصادی (OECD)، G20 و اتحادیه‌های منطقه‌ای نیز برای ساخت گروه‌ها، هیات‌های مشاوره‌ای، اصول، استاندادر‌ها و بیانیه‌هایی پیرامون هوش مصنوعی تلاش می‌کنند. گروه‌هایی همچون OECD ممکن است برای حفظ یکپارچگی قانونی در مناطق مختلف و کاهش مسئولیت شرکت‌های هوش مصنوعی مفید باشند.

از نگاه ژئوپلیتیک، تفاوت‌های روز افزونی را بین رویکرد کشور‌های مستبد و دموکراتیک نسبت به توسعه و استفاده ابزاری از هوش مصنوعی شاهد هستیم. باید دید شرکت‌های هوش مصنوعی تا چه اندازه در سال ۲۰۲۴ توسعه جهانی را به نگاه ویژه به داخل اولویت می‌دهند. شاید تصمیمات سختی پیش روی شرکت‌ها قرار گیرد.

  • مشترک شوید!

    برای عضویت در خبرنامه روزانه ایستنا؛ نشانی پست الکترونیکی خود را در فرم زیر وارد نمایید. پس از آن به صورت خودکار ایمیلی به نشانی شما ارسال میشود، برای تکمیل عضویت خود و تایید صحت نشانی پست الکترونیک وارد شده، می بایست بر روی لینکی که در این ایمیل برایتان ارسال شده کلیک نمایید. پس از آن پیامی مبنی بر تکمیل عضویت شما در خبرنامه روزانه ایستنا نمایش داده میشود.

    با عضویت در خبرنامه پیامکی آژانس خبری فناوری اطلاعات و ارتباطات (ایستنا) به طور روزانه آخرین اخبار، گزارشها و تحلیل های حوزه فناوری اطلاعات و ارتباطات را در هر لحظه و هر کجا از طریق پیام کوتاه دریافت خواهید کرد. برای عضویت در این خبرنامه، مشترکین سیمکارت های همراه اول لازم است عبارت 150 را به شماره 201464 و مشترکین سیمکارت های ایرانسل عبارت ozv ictn را به شماره ۸۲۸۲ ارسال کنند. دریافت موفق هر بسته خبری که محتوی پیامکی با حجم ۵پیامک بوده و ۴ تا ۶ عنوان خبری را شامل میشود، ۳۵۰ ریال برای مشترک هزینه در بردارد که در صورتحساب ارسالی از سوی اپراتور مربوطه محاسبه و از اعتبار موجود در حساب مشترکین سیمکارت های دائمی کسر میشود. بخشی از این درآمد این سرویس از سوی اپراتور میزبان شما به ایستنا پرداخت میشود. مشترکین در هر لحظه براساس دستورالعمل اعلامی در پایان هر بسته خبری قادر خواهند بود اشتراک خود را در این سرویس لغو کنند. هزینه دریافت هر بسته خبری برای مشترکین صرفا ۳۵۰ ریال خواهد بود و این هزینه برای مشترکین در حال استفاده از خدمات رومینگ بین الملل اپراتورهای همراه اول و ایرانسل هم هزینه اضافه ای در بر نخواهد داشت.