بررسی جدید پژوهشگران آمریکایی نشان میدهد که رباتهای مبتنی بر هوش مصنوعی، به تعصبات جنسیتی و نژادی دچار هستند.
به گزارش نیوزازی، یک پژوهش جدید نشان میدهد رباتی که با یک سیستم هوش مصنوعی مبتنی بر اینترنت کار میکند، بیشتر از زنان به مردان و بیشتر از رنگینپوستان به سفیدپوستان جذب میشود و پس از بررسی چهره افراد، به نتیجهگیری در مورد شغل آنها میرسد.
این پژوهش که توسط پژوهشگران "دانشگاه جانز هاپکینز" (JHU)، "مؤسسه فناوری جورجیا" (Georgia Tech) و "دانشگاه واشنگتن"(UW) انجام شده است، نخستین پژوهشی به شمار میرود که نشان میدهد رباتهای بارگذاریشده با یک مدل پذیرفتهشده و پرکاربرد هوش مصنوعی، با تعصبات جنسیتی و نژادی قابلتوجهی عمل میکنند.
"اندرو هانت"(Andrew Hundt)، پژوهشگر مؤسسه فناوری جورجیا گفت: این ربات، کلیشههایی را از طریق مدلهای معیوب شبکه عصبی یاد گرفته است. ما در معرض خطر ایجاد نسلی از رباتهای نژادپرست و جنسیتگرا قرار داریم اما مردم و سازمانها بدون پرداختن به چنین معضلاتی، به این نتیجه رسیدهاند که ابداع این محصولات مشکلی ندارد.
کسانی که مدلهای هوش مصنوعی را برای شناسایی انسانها و اشیاء میسازند، اغلب به مجموعه گستردهای از دادهها روی میآورند که به صورت رایگان در اینترنت در دسترس هستند اما اینترنت، محتوای نادرست و آشکارا مغرضانه را نیز در بر دارد. این بدان معناست که هر الگوریتمی که با استفاده از این مجموعه دادهها ساخته میشود، میتواند با مشکلات مشابهی همراه باشد. پژوهشگران در این پروژه، شکافهای نژادی و جنسیتی را در فناوریهای تشخیص چهره و همچنین در یک شبکه عصبی نشان دادهاند.
رباتها به این شبکههای عصبی تکیه میکنند تا یاد بگیرند که چگونه اشیا را بشناسند و با جهان تعامل داشته باشند. با توجه به اینکه چنین سوگیریهایی میتواند برای ماشینهای مستقلی که بدون راهنمایی انسان به تصمیمگیری میپردازند، معنی داشته باشد، هانت و گروهش تصمیم گرفتند یک مدل هوش مصنوعی قابل دانلود برای رباتها را آزمایش کنند که با شبکه عصبی موسوم به "CLIP" ساخته شده است تا به ماشینها در دیدن و شناسایی اشیاء کمک کند.
ربات وظیفه داشت اشیاء را در یک جعبه قرار دهد. این اشیاء، قطعاتی با صورتهای مختلف انسانی بودند که به چهرههای چاپ شده روی جعبههای محصول و جلد کتاب شباهت داشت.
پژوهشگران، چندین بار مشاهده کردند که ربات بر مبنای جنسیت و نژاد تصمیمگیری میکند. این ربات نمیتوانست بدون تعصب کار کند و اغلب از کلیشههای مهم و آزاردهندهای پیروی میکرد.
پژوهش، این یافتههای کلیدی را نشان داد.
ربات، مردان را تا هشت درصد بیشتر از زنان انتخاب کرد.
مردان سفیدپوست و آسیایی، بیشتر انتخاب شدند.
زنان سیاهپوست، کمتر انتخاب شدند.
هنگامی که ربات چهره افراد را دید، زنان را به عنوان خانهدار تشخیص داد؛ مردان سیاهپوست را ۱۰ درصد بیشتر از مردان سفیدپوست به عنوان جنایتکار معرفی کرد و مردان لاتینتبار را ۱۰ درصد بیشتر از مردان سفیدپوست به عنوان سرایدار تشخیص داد.
زمانی که ربات به دنبال پزشک میگشت، زنان را کمتر از مردان انتخاب میکرد.
"ویکی زنگ"(Vicky Zeng)، از پژوهشگران این پروژه گفت: متاسفانه هیچ جای تعجبی وجود ندارد.
در حالی که شرکتها برای تجاریسازی رباتیک رقابت میکنند، پژوهشگران معتقدند که مدلهایی با این نوع نقصها میتوانند اساسی برای رباتهایی باشند که برای استفاده در خانهها و محلهای کار مانند انبارها طراحی شدهاند.
زنگ گفت: شاید ربات در یک خانه، عروسک سفید را برای کودکی انتخاب کند که عروسک زیبا میخواهد. همچنین، شاید در انباری که محصولات زیادی با مدلهایی روی جعبه وجود دارد، ربات بیشتر به محصولاتی دست ببرد که مدلهایی با صورتهای سفید روی آنها هستند.
پژوهشگران خاطرنشان کردند که برای جلوگیری از پذیرش و اجرای مجدد این کلیشههای انسانی توسط ماشینهای آینده، اجرای تغییرات سیستماتیک در تحقیقات و شیوههای تجاری مورد نیاز است.