فناوری اطلاعات

لبه تکنولوژی

September 2, 2023
18:12 شنبه، 11ام شهریورماه 1402
کد خبر: 149251

آیا رفتارهای انسانی در هوش مصنوعی قابل اجراست؟

ابزارهای هوش مصنوعی می‌توانند اشتباه کنند، می‌توانند تصمیمات مغرضانه بگیرند یا در فعالیت‌های خود سوگیری داشته باشند. یکی از پرسش‌هایی که به طور حتمی برای بسیاری از افراد مطرح می‌شود این است که چگونه می‌توان رفتارهای انسان را در سیستم هوش مصنوعی پیاده‌سازی کرد و سوال دیگر در رابطه با هم‌سویی ارزش‌های هوش مصنوعی با ارزش‌های انسانی است.

با قدرتمندتر شدن هوش مصنوعی، نفوذ و تاثیر آن در زندگی روزمره نیز افزایش می‌یابد. به دنبال این اثرگذاری، سوالات مربوط به نحوه استفاده و به‌کارگیری این فناوری مهم‌تر می‌شود. پاسخ به این پرسش‌ها می‌تواند قابلیت‌های اساسی که موجب اتخاذ تصمیم‌های بزرگ و کوچک در هوش مصنوعی می‌شود را بهتر مشخص ‌کند.

هم‌سویی ارزش‌های هوش مصنوعی با ارزش‌های انسانی

در رابطه با این موضوع، ابتدا باید با مفهوم هم‌سویی ارزش در هوش مصنوعی آشنا شویم. هم‌سویی ارزش به معنای این است که سیستم‌های هوش مصنوعی مستقل باید طوری طراحی شوند که بتوان اهداف و رفتارهای آنها را با ارزش‌های انسانی در طول عملیاتشان هماهنگ کرد. طبق تعریفی که آنکا دراگان، استادیار دانشگاه کالیفرنیا توضیح می‌دهد که ربات‌ها قصد ندارند علیه بشریت شورش کنند، آنها فقط سعی می‌کنند هر کاری را که ما به آنها می‌گوییم انجام دهند را بهینه کنند. بنابراین، باید آنها طوری برنامه‌ریزی شوند که مطابق با دنیای ما باشند.

تیم OpenAI در مقاله تحقیقی‌شان، مفهوم هم‌سویی ارزش هوش مصنوعی با ارزش‌های انسانی را این‌گونه تعریف کردند که این فناوری هر چه که انسان می‌خواهد را انجام می‌دهد. هم‌سویی ارزش هوش مصنوعی با ارزش‌های انسانی مستلزم سطحی از درک ارزش‌های انسانی در یک زمینه خاص است. در این مورد، تیم OpenAI معتقد است که بهترین راه برای درک ارزش‌های انسانی، پرسیدن سوالات ساده است.

پرسیدن سوال درست روشی موثر برای دستیابی به هم‌سویی ارزش هوش مصنوعی با ارزش‌های انسانی است. متاسفانه، این روش یادگیری در برابر سه محدودیت قرار داد که عبارتند از:

۱تعادل بازتابی: در بسیاری از موارد، انسان‌ها نمی‌توانند به یک سوال با محوریت قضاوت کردن، پاسخ درستی بدهند. عواملی مانند سوگیری شناختی یا اخلاقی، فقدان دانش در حوزه مربوطه یا تعریف مبهم از سوال ممکن است باعث ابهام در پاسخ‌ها شود. در فلسفه، این مورد به نام تعادل بازتابی شناخته می‌شود، چرا که یکی از مکانیزم‌هایی است که هر الگوریتم هوش مصنوعی که سعی در یادگیری رفتارهای انسانی دارد باید از آن تبعیت کند.

۲عدم اطمینان: حتی اگر بتوانیم به یک تعادل بازتابنده برای یک سوال معین دست پیدا کنیم، ممکن است شرایط متفاوتی فراهم باشد که در آن عدم اطمینان یا عدم توافق مانع از رسیدن به پاسخ صحیح می‌شود. به‌طور کلی هر گونه فعالیتی که مرتبط با برنامه‌ریزی برای آینده است اغلب حس عدم اطمینان را بر می‌انگیزد.

۳فریب: انسان‌ها توانایی منحصر به‌فردی در ارائه پاسخ‌های قابل قبول به یک سوال دارند اما ممکن است این پاسخ به طور ضمنی اشتباه باشد. این اشتباهات که ممکن است عمدا یا به طور اتفاقی باشد منجر به رفتارهای فریبنده یا گمراه کننده برای نتیجه‌گیری از یک رویداد معین می‌شود. تشخیص رفتار فریبنده یکی از مهمترین چالش‌های هوش مصنوعی است که برای دستیابی به ارزش هم‌سویی هوش مصنوعی با ارزش‌های انسانی باید حل شود.

یادگیری رفتارهای انسانی از طریق بحث کردن

تا اینجا ما می‌توان دو استدلال برای موضوع هم‌سویی ارزش ارائه کرد:

سیستم‌های هوش مصنوعی می‌توانند ارزش‌های انسانی را از طریق طرح سوال یاد بگیرند.

این سوالات اغلب در برابر چالش‌هایی مانند عدم قطعیت، فریب یا عدم تعادل بازتابی، آسیب‌پذیر هستند.

تیم OpenAI با کنار هم قرار دادن این دو ایده، تصمیم گرفت تا با تکیه بر روش پویایی در پاسخگویی به پرسش‌ها یعنی مناظره، سیستم را وادار کند تا ارزش‌های انسانی را بیاموزد. از نظر مفهومی، مناظره به معنای بحث کردن است و باعث می‌شود که یک استدلال پیچیده را به مجموعه‌ای تکراری از سوالات ساده‌تر تجزیه ‌کرده تا مسیر استدلالی به سوی یک پاسخ خاص را ساده‌سازی کند.

خطر تعصب

هوش مصنوعی یک سیستم مبتنی بر یادگیری است. از طریق داده‌هایی که ما به آن می‌دهیم رشد می‌کند و بینش‌ها و قابلیت‌های جدیدی را به دست می‌آورد. به منظور هدایت درست سیستم هوش مصنوعی، دانشمندان باید دقت بسیاری روی مجموعه داده‌ها داشته باشند. اما این داده‌ها به صورت ناخواسته ممکن است مورد تعصب قرار بگیرند.

به طور مثال، طبق تحقیقی که دانشمندان انجام داده‌اند الگوریتم‌های تبلیغاتی مشاغل پردرآمد گوگل برای زنان ۶ برابر بیشتر از مردان است. مطمئنا مواردی از این دست نشان‌دهنده چالشی اساسی در هوش مصنوعی است. به همین منظور، ما باید یک چارچوب اخلاقی قوی برای هوش مصنوعی ایجاد کنیم و بر انتخاب‌هایی که انجام می‌دهیم کنترل داشته باشیم.

افزایش هوش مصنوعی مسئول

برای بهره‌مندی از فرصت‌های رشدی که هوش مصنوعی می‌تواند در اختیار ما قرار دهد، باید به ملاحظات اخلاقی اصلی پرداخت و مجموعه‌ای از الزامات مبتنی بر ارزش را برای هدایت و استقرار هوش مصنوعی ایجاد کرد.

در ادامه ما چند رویکرد را ارائه می‌کنیم که می‌تواند به هوش مصنوعی مسئول کمک کند.

۱حکمرانی قوی: هوش مصنوعی باید مبتنی بر ارزش‌های اصلی شما باشد. ایجاد یک حکمرانی قوی با حفاظ‌های اخلاقی روشن و چارچوب‌های پاسخگویی به سیستم شما امکان شکوفایی بیشتر را فراهم می‌آورد.

۲طراحی قابل اعتماد: مصرف کنندگان تا جایی که بتوانند اقدامات و تصمیمات را توضیح دهند می‌توانند به هوش مصنوعی کمک کنند. بیان جزئیات و ارائه توضیحات باعث کارآمدتر شدن این فناوری می‌شود البته که دستیابی به این اعتماد و برقراری چنین ارتباطی مستلزم حفظ حریم خصوصی، شفافیت و امنیت است.

۳نظارت موثر: هنگامی‌که سیستم هوش مصنوعی شما راه‌اندازی شد، نظارت مستمر بر عملکرد آن برای موفقیت بسیار مهم و ضروری است.

۴مهارت مجدد نیروی کار: معرفی ساز و کار هوش مصنوعی و آشنایی با جزئیات آن، نقش موثری بر افراد درون سازمان خواهد گذاشت. این افراد با کسب آگاهی بیشتر، سوالات جدیدتری برایشان مطرح می‌‌شود و همین مساله، عامل اصلی تحقیق و جست‌وجو است.

  • مشترک شوید!

    برای عضویت در خبرنامه روزانه ایستنا؛ نشانی پست الکترونیکی خود را در فرم زیر وارد نمایید. پس از آن به صورت خودکار ایمیلی به نشانی شما ارسال میشود، برای تکمیل عضویت خود و تایید صحت نشانی پست الکترونیک وارد شده، می بایست بر روی لینکی که در این ایمیل برایتان ارسال شده کلیک نمایید. پس از آن پیامی مبنی بر تکمیل عضویت شما در خبرنامه روزانه ایستنا نمایش داده میشود.

    با عضویت در خبرنامه پیامکی آژانس خبری فناوری اطلاعات و ارتباطات (ایستنا) به طور روزانه آخرین اخبار، گزارشها و تحلیل های حوزه فناوری اطلاعات و ارتباطات را در هر لحظه و هر کجا از طریق پیام کوتاه دریافت خواهید کرد. برای عضویت در این خبرنامه، مشترکین سیمکارت های همراه اول لازم است عبارت 150 را به شماره 201464 و مشترکین سیمکارت های ایرانسل عبارت ozv ictn را به شماره ۸۲۸۲ ارسال کنند. دریافت موفق هر بسته خبری که محتوی پیامکی با حجم ۵پیامک بوده و ۴ تا ۶ عنوان خبری را شامل میشود، ۳۵۰ ریال برای مشترک هزینه در بردارد که در صورتحساب ارسالی از سوی اپراتور مربوطه محاسبه و از اعتبار موجود در حساب مشترکین سیمکارت های دائمی کسر میشود. بخشی از این درآمد این سرویس از سوی اپراتور میزبان شما به ایستنا پرداخت میشود. مشترکین در هر لحظه براساس دستورالعمل اعلامی در پایان هر بسته خبری قادر خواهند بود اشتراک خود را در این سرویس لغو کنند. هزینه دریافت هر بسته خبری برای مشترکین صرفا ۳۵۰ ریال خواهد بود و این هزینه برای مشترکین در حال استفاده از خدمات رومینگ بین الملل اپراتورهای همراه اول و ایرانسل هم هزینه اضافه ای در بر نخواهد داشت.