آیا رفتارهای انسانی در هوش مصنوعی قابل اجراست؟
ابزارهای هوش مصنوعی میتوانند اشتباه کنند، میتوانند تصمیمات مغرضانه بگیرند یا در فعالیتهای خود سوگیری داشته باشند. یکی از پرسشهایی که به طور حتمی برای بسیاری از افراد مطرح میشود این است که چگونه میتوان رفتارهای انسان را در سیستم هوش مصنوعی پیادهسازی کرد و سوال دیگر در رابطه با همسویی ارزشهای هوش مصنوعی با ارزشهای انسانی است.
با قدرتمندتر شدن هوش مصنوعی، نفوذ و تاثیر آن در زندگی روزمره نیز افزایش مییابد. به دنبال این اثرگذاری، سوالات مربوط به نحوه استفاده و بهکارگیری این فناوری مهمتر میشود. پاسخ به این پرسشها میتواند قابلیتهای اساسی که موجب اتخاذ تصمیمهای بزرگ و کوچک در هوش مصنوعی میشود را بهتر مشخص کند.
همسویی ارزشهای هوش مصنوعی با ارزشهای انسانی
در رابطه با این موضوع، ابتدا باید با مفهوم همسویی ارزش در هوش مصنوعی آشنا شویم. همسویی ارزش به معنای این است که سیستمهای هوش مصنوعی مستقل باید طوری طراحی شوند که بتوان اهداف و رفتارهای آنها را با ارزشهای انسانی در طول عملیاتشان هماهنگ کرد. طبق تعریفی که آنکا دراگان، استادیار دانشگاه کالیفرنیا توضیح میدهد که رباتها قصد ندارند علیه بشریت شورش کنند، آنها فقط سعی میکنند هر کاری را که ما به آنها میگوییم انجام دهند را بهینه کنند. بنابراین، باید آنها طوری برنامهریزی شوند که مطابق با دنیای ما باشند.
تیم OpenAI در مقاله تحقیقیشان، مفهوم همسویی ارزش هوش مصنوعی با ارزشهای انسانی را اینگونه تعریف کردند که این فناوری هر چه که انسان میخواهد را انجام میدهد. همسویی ارزش هوش مصنوعی با ارزشهای انسانی مستلزم سطحی از درک ارزشهای انسانی در یک زمینه خاص است. در این مورد، تیم OpenAI معتقد است که بهترین راه برای درک ارزشهای انسانی، پرسیدن سوالات ساده است.
پرسیدن سوال درست روشی موثر برای دستیابی به همسویی ارزش هوش مصنوعی با ارزشهای انسانی است. متاسفانه، این روش یادگیری در برابر سه محدودیت قرار داد که عبارتند از:
۱– تعادل بازتابی: در بسیاری از موارد، انسانها نمیتوانند به یک سوال با محوریت قضاوت کردن، پاسخ درستی بدهند. عواملی مانند سوگیری شناختی یا اخلاقی، فقدان دانش در حوزه مربوطه یا تعریف مبهم از سوال ممکن است باعث ابهام در پاسخها شود. در فلسفه، این مورد به نام تعادل بازتابی شناخته میشود، چرا که یکی از مکانیزمهایی است که هر الگوریتم هوش مصنوعی که سعی در یادگیری رفتارهای انسانی دارد باید از آن تبعیت کند.
۲– عدم اطمینان: حتی اگر بتوانیم به یک تعادل بازتابنده برای یک سوال معین دست پیدا کنیم، ممکن است شرایط متفاوتی فراهم باشد که در آن عدم اطمینان یا عدم توافق مانع از رسیدن به پاسخ صحیح میشود. بهطور کلی هر گونه فعالیتی که مرتبط با برنامهریزی برای آینده است اغلب حس عدم اطمینان را بر میانگیزد.
۳– فریب: انسانها توانایی منحصر بهفردی در ارائه پاسخهای قابل قبول به یک سوال دارند اما ممکن است این پاسخ به طور ضمنی اشتباه باشد. این اشتباهات که ممکن است عمدا یا به طور اتفاقی باشد منجر به رفتارهای فریبنده یا گمراه کننده برای نتیجهگیری از یک رویداد معین میشود. تشخیص رفتار فریبنده یکی از مهمترین چالشهای هوش مصنوعی است که برای دستیابی به ارزش همسویی هوش مصنوعی با ارزشهای انسانی باید حل شود.
یادگیری رفتارهای انسانی از طریق بحث کردن
تا اینجا ما میتوان دو استدلال برای موضوع همسویی ارزش ارائه کرد:
سیستمهای هوش مصنوعی میتوانند ارزشهای انسانی را از طریق طرح سوال یاد بگیرند.
این سوالات اغلب در برابر چالشهایی مانند عدم قطعیت، فریب یا عدم تعادل بازتابی، آسیبپذیر هستند.
تیم OpenAI با کنار هم قرار دادن این دو ایده، تصمیم گرفت تا با تکیه بر روش پویایی در پاسخگویی به پرسشها یعنی مناظره، سیستم را وادار کند تا ارزشهای انسانی را بیاموزد. از نظر مفهومی، مناظره به معنای بحث کردن است و باعث میشود که یک استدلال پیچیده را به مجموعهای تکراری از سوالات سادهتر تجزیه کرده تا مسیر استدلالی به سوی یک پاسخ خاص را سادهسازی کند.
خطر تعصب
هوش مصنوعی یک سیستم مبتنی بر یادگیری است. از طریق دادههایی که ما به آن میدهیم رشد میکند و بینشها و قابلیتهای جدیدی را به دست میآورد. به منظور هدایت درست سیستم هوش مصنوعی، دانشمندان باید دقت بسیاری روی مجموعه دادهها داشته باشند. اما این دادهها به صورت ناخواسته ممکن است مورد تعصب قرار بگیرند.
به طور مثال، طبق تحقیقی که دانشمندان انجام دادهاند الگوریتمهای تبلیغاتی مشاغل پردرآمد گوگل برای زنان ۶ برابر بیشتر از مردان است. مطمئنا مواردی از این دست نشاندهنده چالشی اساسی در هوش مصنوعی است. به همین منظور، ما باید یک چارچوب اخلاقی قوی برای هوش مصنوعی ایجاد کنیم و بر انتخابهایی که انجام میدهیم کنترل داشته باشیم.
افزایش هوش مصنوعی مسئول
برای بهرهمندی از فرصتهای رشدی که هوش مصنوعی میتواند در اختیار ما قرار دهد، باید به ملاحظات اخلاقی اصلی پرداخت و مجموعهای از الزامات مبتنی بر ارزش را برای هدایت و استقرار هوش مصنوعی ایجاد کرد.
در ادامه ما چند رویکرد را ارائه میکنیم که میتواند به هوش مصنوعی مسئول کمک کند.
۱– حکمرانی قوی: هوش مصنوعی باید مبتنی بر ارزشهای اصلی شما باشد. ایجاد یک حکمرانی قوی با حفاظهای اخلاقی روشن و چارچوبهای پاسخگویی به سیستم شما امکان شکوفایی بیشتر را فراهم میآورد.
۲– طراحی قابل اعتماد: مصرف کنندگان تا جایی که بتوانند اقدامات و تصمیمات را توضیح دهند میتوانند به هوش مصنوعی کمک کنند. بیان جزئیات و ارائه توضیحات باعث کارآمدتر شدن این فناوری میشود البته که دستیابی به این اعتماد و برقراری چنین ارتباطی مستلزم حفظ حریم خصوصی، شفافیت و امنیت است.
۳– نظارت موثر: هنگامیکه سیستم هوش مصنوعی شما راهاندازی شد، نظارت مستمر بر عملکرد آن برای موفقیت بسیار مهم و ضروری است.
۴– مهارت مجدد نیروی کار: معرفی ساز و کار هوش مصنوعی و آشنایی با جزئیات آن، نقش موثری بر افراد درون سازمان خواهد گذاشت. این افراد با کسب آگاهی بیشتر، سوالات جدیدتری برایشان مطرح میشود و همین مساله، عامل اصلی تحقیق و جستوجو است.