حاکمیت هوش مصنوعی یا حکمرانی هوش مصنوعی مجموعهای از اصول، سیاستها و فرآیندهایی است که تضمین میکند سیستمهای هوش مصنوعی به شیوهای مسئولانه و اخلاقی توسعه یافته، استفاده و مدیریت میشوند. این مجموعه راهی برای اطمینان از همسویی سیستمهای هوش مصنوعی با ارزشها و اصول انسانی مانند عدالت، شفافیت و مسئولیتپذیری است.
حکمرانی هوش مصنوعی به مجموعهای از سیاستها، مقررات، دستورالعملهای اخلاقی و شیوههایی اشاره دارد که برای مدیریت و نظارت بر توسعه، استقرار و استفاده از فناوریهای هوش مصنوعی وضع میشوند. هدف حکمرانی هوش مصنوعی این است که اطمینان حاصل شود که سیستمهای هوش مصنوعی به روشهایی اخلاقی، شفاف، پاسخگو و سودمند برای کل جامعه توسعه یافته و استفاده میشوند.
اهداف حاکمیت هوش مصنوعی در ادامه بیشتر مورد بررسی قرار میگیرند اما بهطور خلاصه عبارتند از:
تضمین ایمنی و امنیت سیستمهای هوش مصنوعی که شامل محافظت در برابر تعصب، تبعیض و سایر اثرات مضر است.
ترویج شفافیت و توضیحپذیری تا مشخص باشد سیستمهای هوش مصنوعی چگونه کار میکنند و چرا تصمیم میگیرند.
تضمین مسئولیتپذیری به معنای اطمینان از وجود افرادی است که مسئول تصمیمات اتخاذ شده توسط سیستمهای هوش مصنوعی هستند.
حفاظت از حریم خصوصی و امنیت دادهها تا اطمینان داشته باشیم سیستمهای هوش مصنوعی از دادههای شخصی سوء استفاده نمیکنند.
ترویج انصاف و عدم تبعیض. این به معنای اطمینان از عدم تبعیض علیه افراد یا گروهها در سیستمهای هوش مصنوعی است.
برخی از چالشهای حاکمیت هوش مصنوعی آورده شده است:
سرعت نوآوری در هوش مصنوعی سریع است و به سختی میتوان با آخرین پیشرفتها همراه بود.
سیستمهای هوش مصنوعی اغلب پیچیده و غیرشفاف هستند که درک نحوه کار و چرایی تصمیمگیریهایشان را دشوار میسازد.
هیچ چارچوب مورد توافق واحدی برای حکمرانی هوش مصنوعی وجود ندارد و سازمانها را دشوار میکند که بدانند از کجا شروع کنند.
کمبود متخصصان واجد شرایط و متخصص در زمینه مدیریت هوش مصنوعی وجود دارد.
علیرغم این چالشها، حکمرانی هوش مصنوعی یک بخش اساسی برای اطمینان از استفاده خوب از هوش مصنوعی است. با پرداختن به این چالشها، سازمانها میتوانند کمک کنند تا اطمینان حاصل شود که هوش مصنوعی نیروی خوبی در جهان است.
جوانب حاکمیت هوش مصنوعی
حاکمیت هوش مصنوعی جنبههای مختلفی از فناوری هوش مصنوعی را مورد توجه قرار میدهد، از جمله:
اخلاق و ارزشها: هدف حکمرانی هوش مصنوعی ایجاد اصول اخلاقی است که توسعه و استقرار سیستمهای هوش مصنوعی را هدایت میکند. این شامل پرداختن به موضوعاتی مانند سوگیری، انصاف، پاسخگویی، شفافیت، حریم خصوصی و حقوق بشر است.
مقررات: دولتها و نهادهای نظارتی ممکن است قوانین و مقرراتی را ایجاد کنند تا اطمینان حاصل شود که فناوریهای هوش مصنوعی از استانداردهای خاصی پیروی میکنند. این مقررات ممکن است حوزههایی مانند حفاظت از دادهها، امنیت سایبری، ایمنی و مسئولیت را پوشش دهد.
پاسخگویی: حکمرانی هوش مصنوعی شامل مکانیسمهایی است که افراد، سازمانها و توسعهدهندگان هوش مصنوعی را در قبال نتایج سیستمهای هوش مصنوعی خود مسئول نگه میدارد. این میتواند شامل تعریف مسئولیت خطاها، سوگیریها یا تأثیرات منفی ناشی از تصمیمات هوش مصنوعی باشد.
شفافیت: تضمین شفافیت در هوش مصنوعی شامل قابل فهم و تفسیر کردن فرآیندهای تصمیمگیری سیستمهای هوش مصنوعی است. این میتواند به کاربران، ذینفعان و تنظیمکنندهها کمک کند تا بینشهایی در مورد نحوه رسیدن سیستمهای هوش مصنوعی به نتایج خود کسب کنند.
حفظ حریم خصوصی: هوش مصنوعی اغلب برای آموزش به مجموعه دادههای بزرگ متکی است. حاکمیت شامل ملاحظاتی برای جمعآوری مسئول، ذخیرهسازی و استفاده از دادهها و همچنین محافظت از حریم خصوصی کاربر است.
ارزیابی ریسک: حاکمیت هوش مصنوعی شامل ارزیابی ریسکهای بالقوه مرتبط با فناوریهای هوش مصنوعی و اجرای استراتژیهایی برای کاهش این خطرات است. این میتواند شامل حفاظت در برابر عواقب ناخواسته و سوء استفاده احتمالی باشد.
همکاری و مشارکت: حاکمیت هوش مصنوعی اغلب شامل همکاری بین دولتها، سهامداران صنعت، محققان و جامعه مدنی برای شکلدهی جمعی قوانین و دستورالعملهای توسعه و استقرار هوش مصنوعی است.
هماهنگی بینالمللی: با توجه به اینکه فناوریهای هوش مصنوعی از مرزهای ملی فراتر میروند، نیاز به همکاری و هماهنگی بینالمللی برای ایجاد استانداردها و دستورالعملهای ثابت برای حکمرانی هوش مصنوعی وجود دارد.
آگاهی و مشارکت عمومی: حکمرانی موثر هوش مصنوعی شامل تلاشهایی برای آموزش مردم در مورد فناوریهای هوش مصنوعی، مزایای آنها و خطرات بالقوه است. مشارکت عمومی میتواند به شکلگیری سیاستها و مقرراتی که ارزشهای اجتماعی را منعکس میکند کمک کند.
نظارت و انطباق مداوم: حاکمیت هوش مصنوعی یک فرآیند مداوم است که مستلزم نظارت مستمر بر سیستمهای هوش مصنوعی است تا اطمینان حاصل شود که آنها با مقررات و استانداردهای اخلاقی مطابقت دارند. همچنین شامل تطبیق چارچوبهای حاکمیتی با تکامل فناوری و نیازهای اجتماعی است.
حاکمیت هوش مصنوعی چیست؟
AI Governance یا حمکرانی هوش مصنوعی تعریف مجموعهای از مقررات و سیاستها است تا اطمینان حاصل شود که الگوریتمهای هوش مصنوعی و یادگیری ماشین (ML) با هدف پذیرش عادلانه هوش مصنوعی برای مردم توسعه یافته است.
حاکمیت هوش مصنوعی به مسائل مختلفی که مسئول تضمین استفاده اخلاقی از هوش مصنوعی از جمله شفافیت، تعصب، حریم خصوصی، مسئولیتپذیری و ایمنی است میپردازد. بنابراین، هر گونه مسائل مربوط به سوء استفاده از AI یا نقض قوانین توسط حاکمیت AI رسیدگی میشود.
تمرکز اصلی حاکمیت هوش مصنوعی بر نحوه ارتباط آن با عدالت، استقلال و کیفیت داده است. علاوه بر این، حکمرانی کارآمد هوش مصنوعی نیازمند همکاری بین ذینفعان، مانند سازمانهای دولتی، موسسات دانشگاهی، سازمانهای صنعتی و گروههای جامعه مدنی است.
هدف از حاکمیت هوش مصنوعی، رسیدگی به دسترسی، کنترل دادهها، اطلاعات شخصی و استفاده از هوش مصنوعی به روش اخلاقی است که به حداکثر رساندن سود و مزایای بالقوه و به حداقل رساندن آسیبها، غیرقانونیها و بی عدالتیها کمک میکند.
چارچوب حاکمیت هوش مصنوعی میتواند شامل موارد زیر باشد:
تدوین و توسعه کدهای رفتار و دستورالعملهای اخلاقی برای توسعهدهندگان
ایجاد مکانیسمهایی برای ارزیابی تأثیر اجتماعی و اقتصادی هوش مصنوعی
ایجاد چارچوبهای نظارتی برای اطمینان از استفاده ایمن و قابل اعتماد از هوش مصنوعی
بنابراین، زمانی که حاکمیت هوش مصنوعی به درستی پیاده سازی شود، هوش مصنوعی سازمان را ارتقا داده و به آن قدرت میبخشد تا به جای کاهش سرعت، با اعتماد و چابکی بیشتر قدم بردارند.
اصول کلیدی حاکمیت هوش مصنوعی
هدف از حاکمیت هوش مصنوعی محافظت از سازمانها، شرکتها و مشتریانی است که از هوش مصنوعی در نرمافزارها و فناوریهای نوظهور استفاده میکنند. آنها این کار را با ایجاد یک راهنما یا خط مشی مشخصی برای سازمانها انجام میدهد تا استفاده از هوش مصنوعی قانونی را ترویج کنند. چند نمونه از اصول حاکمیت هوش مصنوعی شامل این موارد هستند:
ایجاد همدلی: پیاده سازی هوش مصنوعی به گونهای که پیامدهای اجتماعی و نحوه پاسخگویی و احترام به عواطف انسانی را به خوبی درک کند بسیار مهم است. عدم تعیین مرزها و قوانین در پیاده سازی هوش مصنوعی میتواند به احساسات انسانی آسیب وارد نموده و شهرت و اعتبار یک شرکت را زیر سوال ببرد.
شفافیت: طراحی سیستمهای هوش مصنوعی و تأیید الگوریتمهای هوش مصنوعی که به وضوح عملیات تصمیمگیری را توضیح دهد میتواند در آینده به جلوگیری از نارضایتی یا ناامیدی مشتری و امکان پاسخگویی و بررسی دقیق کمک کند. بنابراین، شرکتها باید در هنگام طراحی الگوریتم چنین مواردی را در نظر بگیرند و توضیح شفافی را در هنگام زمان بروز مشکل برای مشتریان خود داشته باشند.
عدم تبعیض: سیستمهای هوش مصنوعی ممکن است به صورت ناخواسته تبعیضها و سوگیریهایی را ایجاد کند. از این رو اطمینان از اینکه سیستمهای هوش مصنوعی حقوق بشر مربوط به جنسیت، مذهب یا نژاد را نقض نمیکند ضروری است تا بتواند با همه انسانها رفتار عادلانهای داشته باشد. بنابراین، یکی از اصول کلیدی استقرار حاکمیت هوش مصنوعی این است که استقرار آن عادلانه و بدون تبعیض نژادی و قومیتی باشد.
کنترل تعصب: سیستمهای هوش مصنوعی تمامی تصمیمات خود را براساس دادهها میگیرند. از این رو، سازمانها باید یادگیری ماشین خود را برای تشخیص سوءگیریهایی که ممکن است ناخواسته وجود داشته باشند استفاده کنند.
مسئولیتپذیری: توسعه و استقرار هوش مصنوعی باید با خطوط شفافی از مسئولیتپذیری در قبال پیامدهای نامطلوب ناشی از استفاده از آنها همراه باشد. از این رو برای شرکتهای هوش مصنوعی بسیار مهم است که اگر مشکلی در کیفیت و دقت ایجاد شده در سیستمهای هوش مصنوعی پدیدار شد این سیستمهای بتوانند پاسخگویی خود را حفظ کنند.
ایمنی و قابلیت اطمینان: سیستمهای هوش مصنوعی میتوانند رفاه و آسایش افراد را افزایش دهند. بنابراین، در همین راستا پیاده سازی سیستمهای هوش مصنوعی که در عین ایمنی و قابلیت اعتماد باعث بالا رفتن رفاه انسانها شوند ضروری است. سازمانها باید طیف وسیعی از عوامل مانند کیفیت دادهها، معماری سیستم، فرآیندهای تصمیمگیری، الگوریتمها و موارد دیگر را برای اطمینان از ایمنی در سیستمهای هوش مصنوعی به کار گیرند.
چرا AI Governance مهم است؟
هوش مصنوعی با مجموعهای از خطرات و محدودیتهای خاص خود همراه است و برخی از مواقع این سیستمها تصمیمات درستی نمیگیرند. علاوه بر این، ۷۶ درصد از مدیران نگران تعصبات نادرست و عدم شفافیت بازار جهانی هستند.
در اینجا است که حاکمیت هوش مصنوعی، خطرات هوش مصنوعی را نظارت و مدیریت میکند و استقرار هوش مصنوعی اخلاقی و مسئولانه را تضمین میکند. بنابراین، حاکمیت هوش مصنوعی به اطمینان از شفافیت، انصاف و مسئولیتپذیری در سیستمهای هوش مصنوعی کمک میکند و حریم خصوصی را تضمین و به حقوق بشر کمک میکند.
لایههای مختلف حاکمیت هوش مصنوعی
تقسیمبندی حاکمیت هوش مصنوعی به لایههای مختلف میتواند به استقرار و پیاده سازی بهتر و یکپارچه قوانین کمک کند. با این حال، هیچ مدل استاندارد یا واحد توافق شدهای لایههای حاکمیت هوش مصنوعی را تعریف نمیکند، چرا که هر شرکت و سازمان لایههای متفاوتی را تعریف میکنند. با این وجود، در اینجا یک روش معمول وجود دارد که چندین سازمان لایههای حاکمیت هوش مصنوعی را تنظیم میکند:
لایه قانونی و نظارتی: این لایه شامل ایجاد، ایده پردازی و اجرای سیاستها و استانداردهایی است که در زمان استقرار و توسعه هوش مصنوعی لازم است. علاوه بر این موارد، شامل ملاحظات اجتماعی و اخلاقی است که اجرای هوش مصنوعی را شکل میدهد.
لایه فنی: این لایه شامل طراحی و اجرای فنی سیستم هوش مصنوعی، از جمله نگرانیهایی مانند امنیت سایبری و کیفیت دادهها است.
لایه سازمانی: این لایه معمولاً شامل نظارت و مدیریت سیستمهای هوش مصنوعی در سازمانها از جمله استفاده، توسعه و پیاده سازی آنها میشود. علاوه بر این موارد، این لایه همچنین به مسائل پاسخگویی، مدیریت ریسک و شفافیت نیز میپردازد.
لایه بینالمللی: این لایه شامل همکاری و هماهنگی کشورها و سازمان جهانی برای توسعه استانداردها، هنجارها و مقررات مشترک فناوری هوش مصنوعی است.
لایه اجتماعی: این لایه شامل تأثیر اجتماعی و فرهنگی و استفاده از سیستمهای هوش مصنوعی، از جمله آموزش، حقوق بشر، حریم خصوصی، برابری و بسیاری از مسائل اجتماعی دیگر است.
این لایهها متمایز نیستند اما یک رویکرد مشترک و چند رشتهای را شامل میشوند که دربرگیرنده ذینفعان از بخشهای مختلف برای فعال کردن حکمرانی هوش مصنوعی است.
حاکمیت هوش مصنوعی چگونه اندازهگیری میشود؟
عدم اندازهگیری درست و دقیق هوش مصنوعی و سیستمهای آن میتواند برای سازمانها مشکلساز شود. برای مدیریت صحیح هوش مصنوعی در یک سازمان، بسیار مهم است که مشخص کنیم چه کسی مسئول تضمین حاکمیت هوش مصنوعی است. علاوه بر در نظر گرفتن قوانین و مقررات دولتی، سازمانها باید اقداماتی را نیز برای حمایت از تصمیمات استراتژیک انجام دهند. این اقدامات عبارتند از:
امنیت: درک استفاده درست از دادهها و بالا بردن امنیت در سیستمهای هوش مصنوعی ضروری است و هر گونه لغزشی میتواند منجر به آسیبهای جدی گردد.
انطباق با مقررات: یکی دیگر از روشهای اندازهگیری هوش مصنوعی، درک سازمانها با انطباق با مقررات، استانداردها و الزامات مرتبط با هوش مصنوعی است. این اقدامات شامل ارزیابی امنیت سازمان، حریم خصوصی و دستورالعملهای اخلاقی است.
تعصب: تعصب در هوش مصنوعی، به تحریفها و خطاهای سیستیماتیکی اشاره دارد که میتواند در طول توسعه سیستمهای هوش مصنوعی رخ دهد که میتواند منجر به نتایج تبعیضآمیز شود. اندازهگیری حاکمیت هوش مصنوعی از طریق سوگیری شامل ارزیابی عادلانه بودن الگوریتم هوش مصنوعی، دسترسی به فرآیندهای تصمیمگیری سیستم هوش مصنوعی و ارزیابی کیفیت و نمایندگی مجموعه دادههای آموزشی است.
شفافیت: شفافیت در هوش مصنوعی به میزان باز بودن و قابل درک بودن عملکرد و عملیات درونی سیستم هوش مصنوعی اشاره دارد. سازمانها میتوانند سطح شفافیت را در سطوح استقرار و توسعه اندازهگیری کنند.
حسابرسی: در هوش مصنوعی، حسابرسی به بررسی سیستیماتیک و مستقل سیستمها، محیطها و سیاستها و رویههای هوش مصنوعی سازمان اشاره دارد. ممیزیها بر جنبههای مختلف حاکمیت هوش مصنوعی، از جمله ارزیابی مدیریت دادهها، کاهش تعصب، توسعه مدل، تصمیمگیری الگوریتمی، حریم خصوصی و بررسی اسناد اخلاقی تمرکز دارد.
پاسخگویی: در هوش مصنوعی، پاسخگویی به فرآیندی اطلاق میشود که کاربران، توسعهدهندگان و سایر ذینفعان در قبال اقدامات سیستم هوش مصنوعی پاسخگو و مسئول هستند. این شامل روشن کردن مسئولیت یک فرد و نقش آنها در استفاده از سیستمهای هوش مصنوعی است. مکانیزمهای ارزیابی پاسخگویی شامل کمیتههای نظارتی، چارچوبهای مسئولیت و هیئتهای بررسی اخلاقی است.
اندازهگیری حکمرانی هوش مصنوعی با در نظر گرفتن عوامل متعددی مانند شفافیت، انصاف، مسئولیتپذیری، امنیت، تعصب و مقررات چند وجهی است.
مزایای مدیریت هوش مصنوعی
حاکمیت هوش مصنوعی به سازمانها کمک میکند تا خطرات و هزینههای مرتبط با سازمان را کاهش دهند و در عین حال خطرات و هزینههای مرتبط را به حداقل برسانند. در ادامه مهمترین مزایای حاکمیت هوش مصنوعی آورده شده است:
۱- تضمین استفاده مسئولانه از هوش مصنوعی
حاکمیت هوش مصنوعی سازمانها و سیستمهای هوش مصنوعی را به روشی شفاف، اخلاقی و پاسخگو توسعه میدهد و از آنها استفاده میکند. استفاده مسئولانه از هوش مصنوعی به ارتقای اعتماد عمومی در سیستمها و فناوریهای هوش مصنوعی کمک میکند و با تأثیر منفی آنها مبارزه میکند.
۲- بهبود بهرهوری
سیستمهای هوش مصنوعی به خوبی اداره میشوند و با خودکار کردن وظایف اضافی، افزایش تصمیمگیری و به حداقل رساندن دامنه خطاها به ارتقا بهره وری و کارایی کمک میکنند.
۳- بهبود عدالت
دسترسی بهتر به دادهها در حاکمیت هوش مصنوعی به ارتقای انصاف و برابری در جمعآوری دادهها کمک میکند، به پیشبینیهای دقیق و جلوگیری از خطرات ناشی از نتایج کمک میکند.
۴- مشارکت و همکاری را تقویت میکند
حاکمیت هوش مصنوعی به طور قابل توجهی مشارکت و همکاری میان چندین ذینفع مانند دولت، صنعت، جامعه مدنی را تسهیل میکند. این به ارتقا درک عمومی مشترک از مزایای هوش مصنوعی و ایجاد راهحلهای مشترک برای خطرات و چالشهای هوش مصنوعی کمک میکند.
چالشهای حکمرانی هوش مصنوعی
حاکمیت هوش مصنوعی میتواند مزایای زیادی را به همراه داشته باشد. با این حال، پیاده سازی حاکمیت هوش مصنوعی ممکن است با چالشهای زیادی همراه باشد، از جمله:
کیفیت داده: هوش مصنوعی برای تولید نتایج دقیق، سازگار و قابل اعتماد به دادههای باکیفیت نیاز دارد. با این حال، دستیابی به جمعآوری، تمیز کردن و تجزیه و تحلیل دادههای مناسب در برخی از مواقع میتواند دشوار باشد. این چالش به ویژه در هنگام اعتبار سنجی دادههای ورودی دشوار است.
تعصب: این مورد زمانی اتفاق میافتد که دادههای مورد استفاده بر روی معیارهای مناسبی تمرکز نداشته باشند، برچسبهای نادرست داشته باشند و موارد مهم را پوشش ندهند. همه این موارد میتواند منجر به نتایج تبعیض آمیز شود. تعصب در پیاده سازی هوش مصنوعی معمولاً از مجموعه دادههایی ناشی میشود که اطلاعات جامعی را به اندازه کافی ارائه نمیدهند.
الزامات انطباق: نهادهای نظارتی و استانداردهای صنعت، سازمانها را ملزم میکنند تا الزامات خاصی را برای حفاظت از دادهها رعایت کنند. صنایع ملزم هستند تا امور مالی و مراقبتهای بهداشتی را رعایت کنند تا از جریمهها و آسیبهای اعتباری در امان بمانند.
شفافیت: الزامات قانونی برای شفافیت میتواند چالش مهمی برای سیستمهای هوش مصنوعی مبتنی بر یادگیری ماشین باشند. این سیستمها ذاتاً شفاف نیستند و بسیاری از متخصصان هوش مصنوعی نمیدانند که سیستمهایشان چگونه کار میکند.
مانیتورینگ: حاکمیت هوش مصنوعی برای دستیابی به میزانی از دید مورد نیاز برای شناسایی تخلفات، تشخیص مسائل، ثبت اطلاعات برای اهداف حسابرسی نیاز به نظارت دارد.
راهکارهای مدیریت هوش مصنوعی
سازمانهای میتوانند با اجرای رویکرد حریم خصوصی به طراحی هوش مصنوعی و حریم خصوصی دادهها به عنوان دو جزء از چرخه حیات به بسیاری از مسائل پاسخ دهند. در اینجا ما راه حلهایی را معرفی میکنیم که میتواند به حل چالشهای حاکمیت هوش مصنوعی کمک کند:
حریم خصوصی: حریم خصوصی به اشتراکگذاری عمومی اطلاعات مربوط به یک مجموعه داده خاص را امکانپذیر میکند. این بخش شامل توصیف الگوهای گروهها است در حالی که اطلاعات افراد را در که مجموعه دادهها ذخیره شده است را پنهان میکند. هر سازمانی سیاست و خطمشی متفاوتی را برای حفظ حریم خصوصی دارند. تکنیکهای رایج مانند افزودن دادههای مصنوعی به عنوان نویز به مجموعه دادهها و در عین حال حفظ ویژگی پیشبینی دادهها مفید است.
K-Anonymization: این تکنیک تمام دادههایی را که میتواند یک فرد شناسایی کنند در مجموعهای از دادهها متشکل از افراد دیگر با ویژگیهای مشابه را ترکیب میکند. تکنیک K-Anonymization معمولاً به عنوان پنهان شدن در میان انبوه جمعیت شناخته میشود.
De-Identification: این تکنیک شامل پوشاندن ویژگیهای حساس وشناسههای شخصی با مقادیر غیرحساس است. این تکنیک از مجموعه قوانین مختلف استفاده میکند. به عنوان مثال، میتوانید برخی از شمارهها را با ستاره پنهان کنید و فقط آخرین رقمها را نشان دهید.
نتیجهگیری
حاکمیت هوش مصنوعی به سازمانها کمک میکند تا مزایای هوش مصنوعی را به حداکثر برسانند و خطرات و هزینههای مرتبط را کاهش دهند. ایجاد دستورالعملها، چارچوبهای اخلاقی و مقررات برای اطمینان از عدالت و امنیت در سیستمهای هوش مصنوعی بسیار مهم است.