رشد بیامان داده در مکانها و زمانهای مختلف باعث میشود قدرت هوش مصنوعی و تحلیل پیشگویانه آنقدر افزایش یابد که قوانین و مقررات نتوانند پابهپای آن پیش بیایند.
هوش مصنوعی با مسائل اخلاقی گستردهای در زمینههای جمعآوری داده، ذخیرهسازی، توزیع و استفاده آماری از داده و محصول هوش مصنوعی مواجه است. سیستمهای هوش مصنوعی با مشکلاتی مثل تعصب و تبعیض دست و پنجه نرم میکنند. به عبارت دیگر، فناوریهایی که بیطرف نیستند میتوانند تبعیضهای موجود در جامعه را تقویت کنند و به افرادی که در حاشیهاند، آسیب برساند. برای مثال، تحلیل سال ۲۰۱۶ ProPublica،سازمانی غیرانتفاعی که اخبار را بررسی و تحلیل میکند، نشان میدهد که COMPAS (سیستم ارزیابی و تصمیمگیری در مورد جرائم) نسبت به آمریکاییهای سیاهپوست تبعیض قائل میشود و متهمان سیاهپوست را «دوبرابر بیشتر از متهمان سفیدپوست» به قانونشکنی شناسایی میکند.
طبق گزارش آرتیآی، چین نیز از طریق سیستم اعتبار اجتماعی چین (China Social Credit System) در حال توسعه یکپارچهسازی فناوریهای هوش مصنوعی با ساختار اجتماعیدولتی خود است. دولت چین با استفاده از این سیستم و جمعآوری و تحلیل داده بر زندگی شهروندان، نظارت میکند. شهروندان بر اساس تصمیمهای روزمرهشان از جمله خریدها و فعالیتهای اوقات فراغت، رتبهبندی میشوند. این امتیازها تحت تاثیر امتیازهای خانواده و دوستان فرد نیز قرار دارد. امتیاز فرد رتبه اجتماعی او را مشخص میکند و بر جنبههای مختلفی از زندگیاش از جمله سفر داخلی، اخذ وام و دریافت بورس تحصیلی تاثیر میگذارد.
سیستم اعتبار اجتماعی چینی در مقابل رویکرد دیگر کشورها در زمینه حفاظت از داده شخصی مثل GDRP قرار دارد. اتحادیه اروپا در سال ۲۰۱۶ مقررات عمومی حفاظت از داده (GDPR) را تصویب کرد که در واقع، اصلاحیهای جدید و جایگزین «دستورالعملهای حفاظت از داده» سال ۱۹۹۵ است. GDPR محافظت از دادههای شخصی شهروندان اتحادیه اروپا را از سال ۲۰۱۸ افزایش میدهد. ایالات متحده نیز در زمینه مقررات هوش مصنوعی گامهایی را برداشته است. مثلا در سال ۲۰۱۶ شورای ملی علوم و فناوری، کمیتهای فرعی در زمینه یادگیری ماشین و هوش مصنوعی تشکیل داد تا برنامه راهبردی تحقیق و توسعه هوش مصنوعی ملی را ایجاد کند.
این در شرایطی است که دولتهای مختلف در حال تنظیم مقررات در حوزه هوش مصنوعیاند. با این حال، مقررات مربوط به هوش مصنوعی متکی به افرادی است که فناوریهای هوش مصنوعی را میسازند. این امر میتواند مشکلساز باشد؛ زیرا ممکن است مقاصد این افراد در تعارض با حریم خصوصی باشد یا به نفع کاربران نباشد.
مسائل اخلاقی در زمینه هوش مصنوعی
با توجه به ماهیت انسانی اکثر فناوریهای هوش مصنوعی، میتوان چهارچوبهای اخلاقی استخراجشده از تحقیقات پزشکی و بیولوژیکی را مرجع مناسبی برای ارزیابی اخلاقی هوش مصنوعی دانست. مفاهیم کلیدی معدود و در عین حال حیاتیای وجود دارند که میتوانند در حوزه اخلاق هوش مصنوعی، توسعه یابند و مفید واقع شوند. این مفاهیم را میتوان به چهار دسته حق تصمیمگیری، رضایت آگاهانه، اعمال زور و اعمال نفوذ ناروا تقسیم کرد.
عموم مردم در تعامل با فناوریهای هوش مصنوعیایی هستند که شرکتها تولید کردهاند. شرکتها قوانین این فناوریها را از طریق توافقنامههای شرایط و مقررات سرویسدهی تعریف میکنند. هنگامی که این توافقنامهها را بر اساس چهار مفهوم اخلاقی که مطرح شدند، ارزیابی کنیم، مشکلات بسیاری نمایان میشوند. مثلا اغلب شرکتها حق تغییر شرایط سرویسدهی خود را حفظ میکنند و کاربر ممکن است با شرایط خاصی برای نگهداری دادههایش توافق کرده باشد، اما متوجه شود شرایط مورد توافقش، دیگر وجود ندارد. شرکتها ممکن است با توجه به موقعیتشان توضیح و اطلاعات واضحی در مورد تغییر ارائه ندهند و کاربر انتظارات غلط داشته باشد. به این ترتیب این امر از نقطهنظر رضایت آگاهانه مشکلساز است؛ زیرا شرکتها از دادههای شخص در تحقیق یا پیشبینی در مورد آنها استفاده میکنند.
فهم اینکه فناوریهای هوش مصنوعی چگونه کار میکنند، نیاز به سطح زیادی از آموزش و تجربه در آمار و تخصص در زمینه هوش مصنوعی دارد. با توجه به پیچیدگی هوش مصنوعی و الزامات رضایت آگاهانه، مساله رضایت یا عدم رضایت شهروند معمولی نسبت به جمعآوری داده به روشی که تحقیقات هوش مصنوعی آینده را در بر میگیرد، اهمیت زیادی دارد؛ بهویژه هنگامی که این تحقیقات بهروشنی تعریف نشدهاند.
برخی رهبران هوش مصنوعی قوانینی را وضع کردهاند. مثلا گوگل اصولی را در زمینه مسئولیت توسعه هوش مصنوعی مشخص کرده است. این اصول هفتگانه به این ترتیبند: الف) از نظر اجتماعی مفید باشد. ب) از ایجاد یا تقویت تعصب ناعادلانه اجتناب شود. پ) امن باشد و از نظر امنیت آزمایش شود. ت) نسبت به مردم پاسخگو باشد. ث) اصول حریم شخصی را رعایت کند. ج) استانداردهای علمی را حفظ کند و د) برای مقاصد و کاربردهایی در دسترس باشد که مطابق با اصول گوگل است.
اما مساله این است که شرکتهایی مثل گوگل با محدودیتهایی در زمینه نظارت بر مسائل اخلاقی مواجهند. اینکه گوگل تیم اخلاق هوش مصنوعی خود را در کمتر از دو هفته بعد از تاسیس، به دلیل انتقادهای داخلی و خارجی از تناقضهای اعضای آن، منحل کرد، نشان میدهد که پرداختن به مسائل اخلاقی تا چه میزان دشوار و مناقشهبرانگیز است.
از سوی دیگر، با افزایش دسترسی به وسائل نقلیه خودران و نیمهخودران، دغدغههای بنیادینی در مورد چگونگی واکنش ماشینها در موقعیتهایی وجود دارد که نیاز به تصمیمگیری است و میتواند بر زندگی مسافر یا فرد پیاده، تاثیر بگذارد. علاوه بر این، هنگامی که تصادفهایی رخ میدهند که شامل وسائل نقلیه خودران میشوند، پرسشهایی در مورد اینکه چه کسی مجرم است، ایجاد میشود: پیادهها، مسافران، شرکتهای وسائل نقلیه و رهبرانشان، نرمافزارهای هوش مصنوعی و رهبرانشان یا مهندسان هوش مصنوعی.