بیشک قانونگذاری هوش مصنوعی برای جلوگیری از آسیبهای ناشی از استفاده از آن و کاهش خطرات این فناوری ضروری است؛ اما چطور؟
هم قانونگذاران حوزه هوش مصنوعی آمریکا و هم مدیران عامل شرکتهای فناوری در مورد لزوم وضع قوانین مرتبط با استفاده از هوش مصنوعی برای جلوگیری از آسیبهای ناشی از بهرهمندی از این فناوری، توافقنظر دارند؛ زیرا این فناوری جدید توانایی تغییر اساسی زندگی سیاسی و اجتماعی مردم را دارد؛ اما تاکنون هرچه مطرح شده است، بیشتر شبیه نظرات و پیشنهادها بوده تا چیزی که بتوان به آنها قانون گفت!
پیشرفت دیوانهوار هوش مصنوعی باعث ایجاد هوشیاری عمومی در مورد این فناوری شده است و متخصصان معتقدند قانون گذاری هوش مصنوعی واقعاً لازم است.
چرا قانونگذاری برای حیطه هوش مصنوعی ضروری است؟
با اینکه این سؤال جدی مطرح شده که آیا قانونگذاری برای استفاده از AI دیگر نوشدارو پس از مرگ سهراب است یا هنوز دیر نشده، نهتنها دولتمردان، بلکه افراد فعال در حوزه ایجاد سیستمهای هوش مصنوعی معتقدند که وضع قوانین جدید میتواند با آسیبزنی هوش مصنوعی مقابله کند. وجود قوانین مشخص در حیطه هوش مصنوعی، الگوریتمهای AI را به انسانیت پایبند نگه میدارد و از مسلطشدن این فناوری بر انسان جلوگیری میکند.
از زمان پیدایش ChatGPT بسیاری از متخصصان حوزه فناوری معتقدند ایجاد برخی از اقدامات حفاظتی برای استفاده از AI میتواند از آسیبهای ناشی از بهرهمندی از تواناییهای این فناوری جلوگیری کند و خطرات استفاده از آن را به حداقل برساند.
تأکیدیترین موارد تقاضاهای اینچنینی از سوی «سم آلتمن»، مدیرعامل OpenAI (شرکت طراح و سازنده ChatGPT) و یکی از تأثیرگذارترین چهرههای کنونی حوزه هوش مصنوعی، مطرح شده است.
اپلیکیشن ChatGPT از زمان انتشار خود تاکنون به یکی از محبوبترین اپلیکیشنهای تاریخ تبدیل شده و تعداد کاربران ماهانه آن به صد میلیون نفر رسیده است.
OpenAI مدل هوش مصنوعی دیگری با عنوان Dall-E با قابلیت تولید عکس براساس متن را نیز منتشر کرده. این ابزار تبدیل متن به عکس میتوانند مرز بین تصویری که انسان ایجاد کرده و تصویری را که هوش مصنوعی آن را به وجود آورده است، کمرنگ کند.
آلتمن اذعان کرده است که اگر هوش مصنوعی مسیر اشتباهی را در پیش بگیرد، واقعاً دردسرآفرین میشود و ما میخواهیم برای جلوگیری از این اتفاق با دولت همکاری کنیم.
قطعاً دولت آمریکا که مدتی پیش لزوم قوانین برای استفاده از AI را بسیار با اهمیت میدانست نیز از چنین تصمیماتی استقبال خواهد کرد. آلتمن چند روز قبل از اینکه نگرانی خود در مورد هوش مصنوعی را ابراز کند، در جلسهای در کاخ سفید با حضور رهبران حوزه فناوری برای شنیدن هشدار «کامالا هریس»، معاون رئیسجمهور، در مورد خطرات این فناوری و اهمیت بسیار زیاد لزوم ایجاد راهحلهایی برای مقابله با این خطرات شرکت کرده بود.
انتخاب و پیادهسازی چنین راهحلهایی آسان نخواهد بود. دستیابی به توازن بین ایجاد روشهای مبتکرانه برای بهرهمندی از AI و محافظت از شهروندان و حقوق آنها در برابر این فناوری، چالش بسیار سختی است؛ همچنین این موضوع را هم باید در نظر بگیریم که ایجاد محدودیتهای مختلف برای یک فناوری نوظهور، مخصوصاً فناوری جدیدی که در ابتدا سروصدای زیادی به پا میکند، باعث سختشدن پیشرفت آن میشود؛ علاوهبراین، حتی اگر کشورهایی مانند آمریکا، کشورهای عضو اتحادیه اروپا و هند چنین محدودیتهایی را بپذیرند، آیا کشوری مثل چین نیز به آنها احترام خواهد گذاشت؟
جالب است بدانید در سال ۲۰۱۹ OpenAI که در آن زمان کمتر کسی آن را میشناخت، اعلام کرد مدل زبانی بزرگ این شرکت با نام GPT-2 با قابلیت تولید متن، بهدلیل نگرانیهای مرتبط با استفاده مخرب از این فناوری، برای عموم مردم منتشر نخواهد شد.
شرکت دلایل دیگری نیز برای عدم انتشار GPT-2 برای عموم کاربران مطرح کرد که شامل احتمال ارائه مقاله منحرفکننده به کاربران از سوی این ابزار AI و همچنین احتمال جعل هویت آنلاین افراد و خودکارسازی فرایند تولید محتوای ساختگی یا توهینآمیز شبکههای اجتماعی یا تولید محتوای فیشینگ میشود.
به همین دلیل OpenAI پیشنهاد داد که دولتها باید با بهرهمندی از روشهای مبتکرانه، نظارت نظاممند بر تأثیرات اجتماعی و ترکیب فناوریهای AI با یکدیگر را گسترش دهند و یا این کار را شروع کنند و بر روند پیشرفت تواناییهای سیستمهای هوش مصنوعی نیز نظارت داشته باشند.
تلاش کاخ سفید برای قانونگذاری در حیطه هوش مصنوعی
اکنون که چهار سال از این هشدار OpenAI میگذرد، کاخ سفید بهطور غیرمعمولی برای ارائه تصویری از ساختار احتمالی قوانین حوزه AI تلاش میکند. مدیریت این نهاد دولتی آمریکا در اکتبر ۲۰۲۲، درست یک ماه قبل از انتشار جنجالی ChatGPT، مقالهای با عنوان طرحی برای منشور حقوق هوش مصنوعی منتشر کرد.
این مقاله نتیجه یک سال آمادهسازی قوانین، نظرات عمومی و نظرات متخصصان صاحب قدرت بود. برخی از مخاطبین این مقاله بهاشتباه تصور کردند طرح ارائهشده در این مقاله، قانون و لازمالاجراست؛ البته در این مقاله صراحتاً به محدودیتهای منشور معرفیشده اشاره شده و در آن گفته شده است که منشور حقوق هوش مصنوعی تابع قوانین نیست و سیاستهای دولت آمریکا را دنبال نمیکند.
مفاد اصلی این منشور به شرح زیر است:
استفاده از الگوریتمها نباید منجر به ایجاد تبعیض شود و سیستمهای هوش مصنوعی باید برای تمام افراد بهشکل یکسانی طراحی و استفاده شوند.
باید از افراد در مقابل سوءاستفاده از دادهها محافظت کرد و در مورد نحوه استفاده دادههای مرتبط با افراد نظارت وجود داشته باشد.
همه افراد باید بدانند یک سیستم خودکار درحال استفاده است و همچنین باید بفهمند این سیستم چگونه و چرا نتایجی را که آنها را تحت تأثیر قرار میدهد، ارائه میدهد.
افراد باید حق انتخاب کنترل شدن یا نشدن توسط سیستمهای هوش مصنوعی را داشته باشند و درصورت مواجهشدن با مشکل، به فردی دسترسی داشته باشند که سریعاً پیگیر شود و مشکل را برطرف کند.
هر یک از این مفاد میتوانند در کاهش خطرات استفاده از هوش مصنوعی به ما کمک کنند. با اقداماتیمثل به اشتراکگذاری دادههای مورد استفاده برای آموزش مدلهای زبانی بزرگ مثل ChatGPT و دادن حق انتخاب به افرادی که نمیخواهند محتواهایی که تهیه کردهاند، توسط مدلهای زبانی بزرگ در اختیار کاربران قرار گیرد، میتوان مشکلات استفاده از AI را کمتر کرد.
همچنین برای مقابله با تعصبات نیز باید قوانینی وضع شود. وضع قوانین ضدانحصار برای مقابله با غولهای فناوری جهت جلوگیری از دسیسهچینی آنها با کمک هوش مصنوعی با هدف ترکیب و یکپارچهسازی حجم زیادی از اطلاعات کاربران و کسب درآمد از این اطلاعات نیز لازم است. حفاظت از اطلاعات شخصی مورد استفاده در ابزارهای هوش مصنوعی نیز ضرورت دارد.
در مقاله مذکور به دشواربودن تبدیل نظرات و پیشنهادها به قوانین الزامی نیز اشاره شده است. اگر بهدقت به مفاد منشور هوش مصنوعی کاخ سفید نگاه کنیم، کاملاً متوجه میشویم که بالاترین نهاد دولتی آمریکا قصد دارد این قوانین را نهتنها برای هوش مصنوعی، بلکه برای تمام حیطههای فناوری اعمال کند. هرکدام از این موارد را میتوان یکی از حقوق کاربران تلقی کرد که نقض شده است.
تلاش کنگره آمریکا برای قانونگذاری در حیطه هوش مصنوعی
علاوه بر کاخ سفید، کمیته زیرمجموعه قضایی سنا درخصوص حریم خصوصی، فناوری و قانون، قانونگذاری در حوزه AI را ضروری اعلام کرده است.
مجلس سنا در راستای قانون گذاری هوش مصنوعی، به سخنان سم آلتمن، «کریستینا مونتگومری»، افسر ارشد حفظ حریم خصوصی و اعتماد در I.B.M و «گری مارکوس»، استاد بازنشسته در دانشگاه نیویورک و کارآفرین در حوزه AI، سه متخصص بزرگ این حیطه فناوری، گوش داده است. (لازم به ذکر است کاخ سفید هم از شرکتهای بزرگ فناوری، سهامداران حوزه هوش مصنوعی و عموم مردم خواسته به ۲۹ سؤال در مورد مزایا و خطرات استفاده از این فناوری پاسخ دهند.)
از راست به چپ به ترتیب سم آلتمن، گری مارکوس و کریستینا مونتگومری، سه فرد شناختهشده در حوزه هوش مصنوعی در کنگره آمریکا
البته در میان این سه نفر، سم آلتمن بیشترین توجهها را به خود جلب کرده است؛ زیرا بههرحال شرکت تحت سرپرستی او توانسته یکی از موفقترین و محبوبترین محصولات هوش مصنوعی را عرضه کند. وی در سخنرانیاش در مقابل سناتورها گفته است که OpenAI قانونگذاری درزمینه هوش مصنوعی را ضروری میداند.
او اشتیاق خود برای این کار را نشان داده و به گفته خودش، شهادتنامهای را جهت کمک به سیاستگذاران بهمنظور مشخصکردن نحوه تسهیل قانونگذاری، به نحوی که بین امنیت فناوری هوش مصنوعی و بهرهمندی از مزایای آن توازن برقرار شود، آماده کرده است.
سناتور دیک دوربین این اتفاق را تاریخی خوانده؛ زیرا به گفته خودش، به یاد نمیآورد مدیران اجرایی شرکتهای فناوری نزد قانونگذاران حاضر شده باشند و از آنها خواسته باشند برای محصولاتی که ایجاد کردهاند، قوانین بیشتری وضع کنند!
آلتمن نخستین فردی بود که بهعنوان مدیرعامل یک شرکت فناوری در اتاق استماع کنگره حضور یافت و از قانونگذاران چنین درخواستی کرد. قابلتوجهترین اتفاق مشابه این اتفاق، به درز اطلاعات ۸۷ میلیون کاربر فیسبوک در سال ۲۰۱۸ مربوط میشود.
در آن زمان «مارک زاکربرگ»، مدیرعامل فیسبوک سابق، اطلاعات شخصی کاربران شبکه اجتماعی خود را بدون اطلاع آنها در اختیار یک شرکت مشاوره سیاسی قرارداد که با کمپین سیاسی ترامپ مشارکت داشت. وی پس از این اتفاق در مجلس سنا احضار شد و در مقابل برخی از سناتورها اذعان کرد تمایل دارد تحت نظارت دولت قرار بگیرد! حتی در نوشتهای در واشنگتنپست گفت به اعتقاد او، برای دولت و قانونگذاران قوانین بیشتری نیاز است. (البته از سوی دیگر، در آن زمان سالانه یک میلیون دلار به لابیگرها پرداخت میکرد تا اجرای قوانین دولتی به تأخیر بیفتد!)
آلتمن هم مثل زاکربرگ تقاضای خود برای وضع قوانین بیشتر برای استفاده از محصولات شرکت خود را با توضیح در مورد اقدامات محافظتی بهکارگرفتهشده توسط شرکت شروع کرد؛ مثلاً به ChatGPT آموزش داده شده است که برخی از درخواستهای خاص ضداجتماعی را رد کند؛ فردی از این مدل هوش مصنوعی درخواست کرد کد چاپ سهبعدی گلوک (اسلحهای شبیه به کلت) را بنویسد؛ مدل این درخواست را انجام داد؛ اما بهجای گلوک، تیرکمان سنگی را بهصورت سهبعدی چاپ کرد و قبل از انجام این کار تأکید کرد که ساخت چنین وسیلهای و استفاده از آن باید با مسئولیت و بهصورت قانونی انجام شود.
در سیاستهای استفاده از محصولات هوش مصنوعی OpenAI ممنوعیتهای دیگری نیز ذکر شده است که شامل ممنوعبودن استفاده از این محصولات برای ایجاد بدافزارها، ایجاد تصاویر مرتبط با سوءاستفاده جنسی از کودکان، دزدی ادبی و تولید محتوا برای کمپینهای سیاسی میشود؛ البته هنوز مشخص نیست شرکت چگونه میخواهد چنین ممنوعیتهایی را اعمال کند.
مجلس با بیانیهای به شرح زیر، این موضوع را پذیرفته است که OpenAI بهجای تلاش برای جلوگیری از قانونشکنی، تنها پس از نقض قانون اقدام خواهد کرد:
«اگر بر ما محرز شد که در طراحی و ایجاد محصولات شما و نحوه استفاده از آن سیاستهای مذکور دنبال نمیشود، از شما میخواهیم تغییرات لازم را اعمال کنید.»
«ریچارد بلومنتال»، سرپرست کمیته قضایی زیرمجموعه قضایی، در بیانیه آغازین جلسه گوشدادن به سخنان سم آلتمن، کریستینا مونتگومری و گری مارکوس، با جدیت اذعان کرد شرکتهای فعال در هوش مجموعه باید ملزم به آزمایش سیستمهای خود، بیان صریح خطرات احتمالی استفاده از آنها و امکانپذیرکردن دسترسی پژوهشگران مستقل به این سیستمها شوند. چنانچه فعالیتهای شرکتهای هوش مصنوعی و مشتریان آنها منجر به ایجاد آسیب شود، شرکتها و افراد باید مسئولیت انجام چنین کارهایی را بپذیرند.
بلومنتال برای اینکه منظورش در مورد آسیب را بهتر بفهماند، به صدای ضبطشده خود در مورد لزوم قانونگذاری اشاره کرد و گفت حرفهایی در این صدای ضبطشده بیان شده که او اصلاً به زبان نیاورده است! یعنی هم بیانیه و هم صدای این سناتور با هوش مصنوعی دستکاری شده. این اظهارات حداقل برای سیاستمداران حاضر در جلسه نگرانکننده و دلهرهآور بود.
دستیابی به راهحلی برای ارزیابی آسیبها یا تعیین چگونگی مسئولیتپذیری، درست بهاندازه یافتن راهحلی برای تعیین قانون برای فناوری جدیدی که رشد بسیار سریعی دارد و هر مانعی در سر راه خود را بیرحمانه از بین میبرد، دشوار است.
آلتمن در شهادتنامه خود پیشنهاد داده کنگره نهادی دولتی ایجاد کند که مسئول صدور گواهینامه برای مدلهای هوش مصنوعی «قوی» (به گفته او) باشد. (البته هنوز مشخص نیست واژه «قوی» در عمل چگونه تعریف میشود.) چنین پیشنهادی ایده بدی بهنظر نمیرسد، اما ممکن است به ایدهای تبدیل شود که تنها منافع شخصی را تأمین کند.
«کلم دنال» (clem delangue)، مدیرعامل هاگینک فیس (hugging face)، در توییتی گفته است لزوم داشتن گواهینامه برای آموزش مدلهای هوش مصنوعی، بیشتر باعث تمرکز قدرت در دست چند شرکت معدود میشود. چنانچه برخورداری از گواهینامه برای آموزش مدلهای AI ضروری شود، شرکتهایی مثل OpenAI که توانسته است مدل زبانی بزرگ خود را بدون نظارت دولتی یا سایر موانع قانونی طراحی و ایجاد کند، میتوانند بهراحتی رقبای خود را پشت سر بگذارند و جایگاه خود را تثبیت کنند؛ چنین فضایی ورود تازهواردان به حوزه AI را دشوار میکند.
این شرایط نهتنها باعث ایجاد مزیت اقتصادی برای غولهای حوزه هوش مصنوعی مثل OpenAI و مایکروسافت (که از جدیدترین مدل هوش مصنوعی OpenAI، یعنی GPT 4 در برخی از محصولات خود ازجمله موتور جستجوی بینگ استفاده کرده است) میشود، بلکه مختلشدن جریان آزاد اطلاعات و ایدهها را نیز بهدنبال دارد.
مارکوس، استاد دانشگاه و کارآفرین در حوزه AI در مورد خطر جدی ترکیب نوعی فنسالاری (قدرتگرفتن متخصصان در جامعه) و ثروتسالاری (قدرتگرفتن تعداد معدودی از ثروتمندان) که باعث میشود باورهای مردم با اطلاعاتی که مشخص نیست چه هستند، تحت تأثیر شرکتهای معدود قرار گیرد، به سناتورها هشدار داده است.
او به این موضوع هم اشاره کرده که OpenAI و سایر غولهای بزرگ در حوزه هوش مصنوعی هنوز هیچ اطلاعاتی در مورد دادههای مورد استفاده برای آموزش مدلهای خود ارائه نکردهاند. این مخفیکاری تشخیص تعصبات پنهانی این شرکتها و همچنین ارزیابی درست امنیت آنها را غیرممکن میکند.
به نظر سناتور جاش هالی، محتملترین خطر استفاده از مدلهای زبانی بزرگ مثل ChatGPT، توانایی آنها برای دستکاری رأیهاست. آلتمن به این سناتور گفته این موضوع یکی از بزرگترین نگرانیهای اوست. آلتمن در مورد این موضوع اینچنین گفته است:
«بهطور کلی این مدلها توانایی دستکاری، قانعکردن و ارائه اطلاعات تعاملی نادرست را دارد. با توجه به انتخابات ریاستجمهوری سال آینده آمریکا و پیشرفت این مدلها تا آن زمان، استفاده از آنها واقعاً نگرانکننده است.»
بهترین راه برای رفع نگرانیها این است که OpenAI بهعنوان یک شرکت پیشتاز در حوزه هوش مصنوعی، مدلهای زبانی بزرگ خود را از دسترس عموم مردم خارج کند و آنها را تنها زمانی دوباره در اختیار مردم قرار دهد که دیگر قادر به دستکاری رأیها نباشند یا با روشهای دیگری به فرایند دموکراسی آسیب نزنند. درصورت رخدادن یک اتفاق، به قول سناتور دوربین، واقعاً شاهد اتفاقی تاریخی در حوزه AI خواهیم بود؛ اما متأسفانه در جلسه رهبران شاخص حیطه هوش مصنوعی با سناتورها، چنین پیشنهادی مطرح نشد.
محوریت بحث این جلسه به این موضوع مربوط میشد که اگر نهادی دولتی برای قانونگذاری در حوزه AI تأسیس شود، چه نوع نهادی خواهد بود و چه کسی باید مسئولیت آن را بر عهده بگیرد و اینکه آیا بینالمللیکردن چنین نهادی امکانپذیر است یا خیر. این جلسه درحقیقت تمرینی برای قانونگذاری در حوزه AI در آینده بود که در آن به خطرات کنونی استفاده از این فناوری اشاره نشد.