فناوری اطلاعات

August 21, 2023
14:17 دوشنبه، 30ام مردادماه 1402
کد خبر: 148769

حاکمیت هوش مصنوعی چیست و AI Governance چه اصولی دارد؟

حاکمیت هوش مصنوعی یا حکمرانی هوش مصنوعی مجموعه‌ای از اصول، سیاست‌ها و فرآیند‌هایی است که تضمین می‌کند سیستم‌های هوش مصنوعی به شیوه‌ای مسئولانه و اخلاقی توسعه یافته، استفاده و مدیریت می‌شوند. این مجموعه راهی برای اطمینان از همسویی سیستم‌های هوش مصنوعی با ارزش‌ها و اصول انسانی مانند عدالت، شفافیت و مسئولیت‌پذیری است.
 
 
حکمرانی هوش مصنوعی به مجموعه‌ای از سیاست‌ها، مقررات، دستورالعمل‌های اخلاقی و شیوه‌هایی اشاره دارد که برای مدیریت و نظارت بر توسعه، استقرار و استفاده از فناوری‌های هوش مصنوعی وضع می‌شوند. هدف حکمرانی هوش مصنوعی این است که اطمینان حاصل شود که سیستم‌های هوش مصنوعی به روش‌هایی اخلاقی، شفاف، پاسخگو و سودمند برای کل جامعه توسعه یافته و استفاده می‌شوند.
 
اهداف حاکمیت هوش مصنوعی در ادامه بیشتر مورد بررسی قرار می‌گیرند اما به‌طور خلاصه عبارتند از:
 
تضمین ایمنی و امنیت سیستم‌های هوش مصنوعی که شامل محافظت در برابر تعصب، تبعیض و سایر اثرات مضر است.
ترویج شفافیت و توضیح‌پذیری تا مشخص باشد سیستم‌های هوش مصنوعی چگونه کار می‌کنند و چرا تصمیم می‌گیرند.
تضمین مسئولیت‌پذیری به معنای اطمینان از وجود افرادی است که مسئول تصمیمات اتخاذ شده توسط سیستم‌های هوش مصنوعی هستند.
حفاظت از حریم خصوصی و امنیت داده‌ها تا اطمینان داشته باشیم سیستم‌های هوش مصنوعی از داده‌های شخصی سوء استفاده نمی‌کنند.
ترویج انصاف و عدم تبعیض. این به معنای اطمینان از عدم تبعیض علیه افراد یا گروه‌ها در سیستم‌های هوش مصنوعی است.
 
برخی از چالش‌های حاکمیت هوش مصنوعی آورده شده است:
 
سرعت نوآوری در هوش مصنوعی سریع است و به سختی می‌توان با آخرین پیشرفت‌ها همراه بود.
سیستم‌های هوش مصنوعی اغلب پیچیده و غیرشفاف هستند که درک نحوه کار و چرایی تصمیم‌گیری‌هایشان را دشوار می‌سازد.
هیچ چارچوب مورد توافق واحدی برای حکمرانی هوش مصنوعی وجود ندارد و سازمان‌ها را دشوار می‌کند که بدانند از کجا شروع کنند.
کمبود متخصصان واجد شرایط و متخصص در زمینه مدیریت هوش مصنوعی وجود دارد.
علی‌رغم این چالش‌ها، حکمرانی هوش مصنوعی یک بخش اساسی برای اطمینان از استفاده خوب از هوش مصنوعی است. با پرداختن به این چالش‌ها، سازمان‌ها می‌توانند کمک کنند تا اطمینان حاصل شود که هوش مصنوعی نیروی خوبی در جهان است.
 
جوانب حاکمیت هوش مصنوعی
حاکمیت هوش مصنوعی جنبه‌های مختلفی از فناوری هوش مصنوعی را مورد توجه قرار می‌دهد، از جمله:
 
اخلاق و ارزش‌ها: هدف حکمرانی هوش مصنوعی ایجاد اصول اخلاقی است که توسعه و استقرار سیستم‌های هوش مصنوعی را هدایت می‌کند. این شامل پرداختن به موضوعاتی مانند سوگیری، انصاف، پاسخگویی، شفافیت، حریم خصوصی و حقوق بشر است.
 
مقررات: دولت‌ها و نهاد‌های نظارتی ممکن است قوانین و مقرراتی را ایجاد کنند تا اطمینان حاصل شود که فناوری‌های هوش مصنوعی از استاندارد‌های خاصی پیروی می‌کنند. این مقررات ممکن است حوزه‌هایی مانند حفاظت از داده‌ها، امنیت سایبری، ایمنی و مسئولیت را پوشش دهد.
 
پاسخگویی: حکمرانی هوش مصنوعی شامل مکانیسم‌هایی است که افراد، سازمان‌ها و توسعه‌دهندگان هوش مصنوعی را در قبال نتایج سیستم‌های هوش مصنوعی خود مسئول نگه می‌دارد. این می‌تواند شامل تعریف مسئولیت خطا‌ها، سوگیری‌ها یا تأثیرات منفی ناشی از تصمیمات هوش مصنوعی باشد.
 
شفافیت: تضمین شفافیت در هوش مصنوعی شامل قابل فهم و تفسیر کردن فرآیند‌های تصمیم‌گیری سیستم‌های هوش مصنوعی است. این می‌تواند به کاربران، ذینفعان و تنظیم‌کننده‌ها کمک کند تا بینش‌هایی در مورد نحوه رسیدن سیستم‌های هوش مصنوعی به نتایج خود کسب کنند.
 
حفظ حریم خصوصی: هوش مصنوعی اغلب برای آموزش به مجموعه داده‌های بزرگ متکی است. حاکمیت شامل ملاحظاتی برای جمع‌آوری مسئول، ذخیره‌سازی و استفاده از داده‌ها و همچنین محافظت از حریم خصوصی کاربر است.
 
ارزیابی ریسک: حاکمیت هوش مصنوعی شامل ارزیابی ریسک‌های بالقوه مرتبط با فناوری‌های هوش مصنوعی و اجرای استراتژی‌هایی برای کاهش این خطرات است. این می‌تواند شامل حفاظت در برابر عواقب ناخواسته و سوء استفاده احتمالی باشد.
 
همکاری و مشارکت: حاکمیت هوش مصنوعی اغلب شامل همکاری بین دولت‌ها، سهامداران صنعت، محققان و جامعه مدنی برای شکل‌دهی جمعی قوانین و دستورالعمل‌های توسعه و استقرار هوش مصنوعی است.
 
هماهنگی بین‌المللی: با توجه به اینکه فناوری‌های هوش مصنوعی از مرز‌های ملی فراتر ‌می‌روند، نیاز به همکاری و هماهنگی بین‌المللی برای ایجاد استاندارد‌ها و دستورالعمل‌های ثابت برای حکمرانی هوش مصنوعی وجود دارد.
 
آگاهی و مشارکت عمومی: حکمرانی موثر هوش مصنوعی شامل تلاش‌هایی برای آموزش مردم در مورد فناوری‌های هوش مصنوعی، مزایای آن‌ها و خطرات بالقوه است. مشارکت عمومی می‌تواند به شکل‌گیری سیاست‌ها و مقرراتی که ارزش‌های اجتماعی را منعکس می‌کند کمک کند.
 
نظارت و انطباق مداوم: حاکمیت هوش مصنوعی یک فرآیند مداوم است که مستلزم نظارت مستمر بر سیستم‌های هوش مصنوعی است تا اطمینان حاصل شود که آن‌ها با مقررات و استاندارد‌های اخلاقی مطابقت دارند. همچنین شامل تطبیق چارچوب‌های حاکمیتی با تکامل فناوری و نیاز‌های اجتماعی است.
 
حاکمیت هوش مصنوعی چیست؟
AI Governance یا حمکرانی هوش مصنوعی تعریف مجموعه‌ای از مقررات و سیاست‌ها است تا اطمینان حاصل شود که الگوریتم‌های هوش مصنوعی و یادگیری ماشین (ML) با هدف پذیرش عادلانه هوش مصنوعی برای مردم توسعه یافته است.
 
حاکمیت هوش مصنوعی به مسائل مختلفی که مسئول تضمین استفاده اخلاقی از هوش مصنوعی از جمله شفافیت، تعصب، حریم خصوصی، مسئولیت‌پذیری و ایمنی است می‌پردازد. بنابراین، هر گونه مسائل مربوط به سوء استفاده از AI یا نقض قوانین توسط حاکمیت AI رسیدگی می‌شود.
 
تمرکز اصلی حاکمیت هوش مصنوعی بر نحوه ارتباط آن با عدالت، استقلال و کیفیت داده است. علاوه بر این، حکمرانی کارآمد هوش مصنوعی نیازمند همکاری بین ذینفعان، مانند سازمان‌های دولتی، موسسات دانشگاهی، سازمان‌های صنعتی و گروه‌های جامعه مدنی است.
 
هدف از حاکمیت هوش مصنوعی، رسیدگی به دسترسی، کنترل داده‌ها، اطلاعات شخصی و استفاده از هوش مصنوعی به روش اخلاقی است که به حداکثر رساندن سود و مزایای بالقوه و به حداقل رساندن آسیب‌ها، غیرقانونی‌ها و بی عدالتی‌ها کمک می‌کند.
 
چارچوب حاکمیت هوش مصنوعی می‌تواند شامل موارد زیر باشد:
 
تدوین و توسعه کد‌های رفتار و دستورالعمل‌های اخلاقی برای توسعه‌دهندگان
ایجاد مکانیسم‌هایی برای ارزیابی تأثیر اجتماعی و اقتصادی هوش مصنوعی
ایجاد چارچوب‌های نظارتی برای اطمینان از استفاده ایمن و قابل اعتماد از هوش مصنوعی
بنابراین، زمانی که حاکمیت هوش مصنوعی به درستی پیاده سازی شود، هوش مصنوعی سازمان را ارتقا داده و به آن قدرت می‌بخشد تا به جای کاهش سرعت، با اعتماد و چابکی بیشتر قدم بردارند.
 
اصول کلیدی حاکمیت هوش مصنوعی
هدف از حاکمیت هوش مصنوعی محافظت از سازمان‌ها، شرکت‌ها و مشتریانی است که از هوش مصنوعی در نرم‌افزار‌ها و فناوری‌های نوظهور استفاده می‌کنند. آن‌ها این کار را با ایجاد یک راهنما یا خط مشی مشخصی برای سازمان‌ها انجام می‌دهد تا استفاده از هوش مصنوعی قانونی را ترویج کنند. چند نمونه از اصول حاکمیت هوش مصنوعی شامل این موارد هستند:
 
ایجاد همدلی: پیاده سازی هوش مصنوعی به گونه‌ای که پیامد‌های اجتماعی و نحوه پاسخگویی و احترام به عواطف انسانی را به خوبی درک کند بسیار مهم است. عدم تعیین مرز‌ها و قوانین در پیاده سازی هوش مصنوعی می‌تواند به احساسات انسانی آسیب وارد نموده و شهرت و اعتبار یک شرکت را زیر سوال ببرد.
شفافیت: طراحی سیستم‌های هوش مصنوعی و تأیید الگوریتم‌های هوش مصنوعی که به وضوح عملیات تصمیم‌گیری را توضیح دهد می‌تواند در آینده به جلوگیری از نارضایتی یا ناامیدی مشتری و امکان پاسخگویی و بررسی دقیق کمک کند. بنابراین، شرکت‌ها باید در هنگام طراحی الگوریتم چنین مواردی را در نظر بگیرند و توضیح شفافی را در هنگام زمان بروز مشکل برای مشتریان خود داشته باشند.
عدم تبعیض: سیستم‌های هوش مصنوعی ممکن است به صورت ناخواسته تبعیض‌ها و سوگیری‌هایی را ایجاد کند. از این رو اطمینان از اینکه سیستم‌های هوش مصنوعی حقوق بشر مربوط به جنسیت، مذهب یا نژاد را نقض نمی‌کند ضروری است تا بتواند با همه انسان‌ها رفتار عادلانه‌ای داشته باشد. بنابراین، یکی از اصول کلیدی استقرار حاکمیت هوش مصنوعی این است که استقرار آن عادلانه و بدون تبعیض نژادی و قومیتی باشد.
کنترل تعصب: سیستم‌های هوش مصنوعی تمامی تصمیمات خود را براساس داده‌ها می‌گیرند. از این رو، سازمان‌ها باید یادگیری ماشین خود را برای تشخیص سوء‌گیری‌هایی که ممکن است ناخواسته وجود داشته باشند استفاده کنند.
مسئولیت‌پذیری: توسعه و استقرار هوش مصنوعی باید با خطوط شفافی از مسئولیت‌پذیری در قبال پیامد‌های نامطلوب ناشی از استفاده از آن‌ها همراه باشد. از این رو برای شرکت‌های هوش مصنوعی بسیار مهم است که اگر مشکلی در کیفیت و دقت ایجاد شده در سیستم‌های هوش مصنوعی پدیدار شد این سیستم‌های بتوانند پاسخگویی خود را حفظ کنند.
ایمنی و قابلیت اطمینان: سیستم‌های هوش مصنوعی می‌توانند رفاه و آسایش افراد را افزایش دهند. بنابراین، در همین راستا پیاده سازی سیستم‌های هوش مصنوعی که در عین ایمنی و قابلیت اعتماد باعث بالا رفتن رفاه انسان‌ها شوند ضروری است. سازمان‌ها باید طیف وسیعی از عوامل مانند کیفیت داده‌ها، معماری سیستم، فرآیند‌های تصمیم‌گیری، الگوریتم‌ها و موارد دیگر را برای اطمینان از ایمنی در سیستم‌های هوش مصنوعی به کار گیرند.
 
چرا AI Governance مهم است؟
هوش مصنوعی با مجموعه‌ای از خطرات و محدودیت‌های خاص خود همراه است و برخی از مواقع این سیستم‌ها تصمیمات درستی نمی‌گیرند. علاوه بر این، ۷۶ درصد از مدیران نگران تعصبات نادرست و عدم شفافیت بازار جهانی هستند.
 
در اینجا است که حاکمیت هوش مصنوعی، خطرات هوش مصنوعی را نظارت و مدیریت می‌کند و استقرار هوش مصنوعی اخلاقی و مسئولانه را تضمین می‌کند. بنابراین، حاکمیت هوش مصنوعی به اطمینان از شفافیت، انصاف و مسئولیت‌پذیری در سیستم‌های هوش مصنوعی کمک می‌کند و حریم خصوصی را تضمین و به حقوق بشر کمک می‌کند.
 
لایه‌های مختلف حاکمیت هوش مصنوعی
تقسیم‌بندی حاکمیت هوش مصنوعی به لایه‌های مختلف می‌تواند به استقرار و پیاده سازی بهتر و یکپارچه قوانین کمک کند. با این حال، هیچ مدل استاندارد یا واحد توافق شده‌ای لایه‌های حاکمیت هوش مصنوعی را تعریف نمی‌کند، چرا که هر شرکت و سازمان لایه‌های متفاوتی را تعریف می‌کنند. با این وجود، در اینجا یک روش معمول وجود دارد که چندین سازمان لایه‌های حاکمیت هوش مصنوعی را تنظیم می‌کند:
 
لایه قانونی و نظارتی: این لایه شامل ایجاد، ایده پردازی و اجرای سیاست‌ها و استاندارد‌هایی است که در زمان استقرار و توسعه هوش مصنوعی لازم است. علاوه بر این موارد، شامل ملاحظات اجتماعی و اخلاقی است که اجرای هوش مصنوعی را شکل می‌دهد.
لایه فنی: این لایه شامل طراحی و اجرای فنی سیستم هوش مصنوعی، از جمله نگرانی‌هایی مانند امنیت سایبری و کیفیت داده‌ها است.
لایه سازمانی: این لایه معمولاً شامل نظارت و مدیریت سیستم‌های هوش مصنوعی در سازمان‌ها از جمله استفاده، توسعه و پیاده سازی آن‌ها می‌شود. علاوه بر این موارد، این لایه همچنین به مسائل پاسخگویی، مدیریت ریسک و شفافیت نیز می‌پردازد.
لایه بین‌المللی: این لایه شامل همکاری و هماهنگی کشور‌ها و سازمان جهانی برای توسعه استاندارد‌ها، هنجار‌ها و مقررات مشترک فناوری هوش مصنوعی است.
لایه اجتماعی: این لایه شامل تأثیر اجتماعی و فرهنگی و استفاده از سیستم‌های هوش مصنوعی، از جمله آموزش، حقوق بشر، حریم خصوصی، برابری و بسیاری از مسائل اجتماعی دیگر است.
این لایه‌ها متمایز نیستند اما یک رویکرد مشترک و چند رشته‌ای را شامل می‌شوند که دربرگیرنده ذی‌نفعان از بخش‌های مختلف برای فعال کردن حکمرانی هوش مصنوعی است.
 
حاکمیت هوش مصنوعی چگونه اندازه‌گیری می‌شود؟
عدم اندازه‌گیری درست و دقیق هوش مصنوعی و سیستم‌های آن می‌تواند برای سازمان‌ها مشکل‌ساز شود. برای مدیریت صحیح هوش مصنوعی در یک سازمان، بسیار مهم است که مشخص کنیم چه کسی مسئول تضمین حاکمیت هوش مصنوعی است. علاوه بر در نظر گرفتن قوانین و مقررات دولتی، سازمان‌ها باید اقداماتی را نیز برای حمایت از تصمیمات استراتژیک انجام دهند. این اقدامات عبارتند از:
 
امنیت: درک استفاده درست از داده‌ها و بالا بردن امنیت در سیستم‌های هوش مصنوعی ضروری است و هر گونه لغزشی می‌تواند منجر به آسیب‌های جدی گردد.
انطباق با مقررات: یکی دیگر از روش‌های اندازه‌گیری هوش مصنوعی، درک سازمان‌ها با انطباق با مقررات، استاندارد‌ها و الزامات مرتبط با هوش مصنوعی است. این اقدامات شامل ارزیابی امنیت سازمان، حریم خصوصی و دستورالعمل‌های اخلاقی است.
تعصب: تعصب در هوش مصنوعی، به تحریف‌ها و خطا‌های سیستیماتیکی اشاره دارد که می‌تواند در طول توسعه سیستم‌های هوش مصنوعی رخ دهد که می‌تواند منجر به نتایج تبعیض‌آمیز شود. اندازه‌گیری حاکمیت هوش مصنوعی از طریق سو‌گیری شامل ارزیابی عادلانه بودن الگوریتم هوش مصنوعی، دسترسی به فرآیند‌های تصمیم‌گیری سیستم هوش مصنوعی و ارزیابی کیفیت و نمایندگی مجموعه داده‌های آموزشی است.
شفافیت: شفافیت در هوش مصنوعی به میزان باز بودن و قابل درک بودن عملکرد و عملیات درونی سیستم هوش مصنوعی اشاره دارد. سازمان‌ها می‌توانند سطح شفافیت را در سطوح استقرار و توسعه اندازه‌گیری کنند.
حسابرسی: در هوش مصنوعی، حسابرسی به بررسی سیستیماتیک و مستقل سیستم‌ها، محیط‌ها و سیاست‌ها و رویه‌های هوش مصنوعی سازمان اشاره دارد. ممیزی‌ها بر جنبه‌های مختلف حاکمیت هوش مصنوعی، از جمله ارزیابی مدیریت داده‌ها، کاهش تعصب، توسعه مدل، تصمیم‌گیری الگوریتمی، حریم خصوصی و بررسی اسناد اخلاقی تمرکز دارد.
پاسخگویی: در هوش مصنوعی، پاسخگویی به فرآیندی اطلاق می‌شود که کاربران، توسعه‌دهندگان و سایر ذینفعان در قبال اقدامات سیستم هوش مصنوعی پاسخگو و مسئول هستند. این شامل روشن کردن مسئولیت یک فرد و نقش آن‌ها در استفاده از سیستم‌های هوش مصنوعی است. مکانیزم‌های ارزیابی پاسخگویی شامل کمیته‌های نظارتی، چارچوب‌های مسئولیت و هیئت‌های بررسی اخلاقی است.
اندازه‌گیری حکمرانی هوش مصنوعی با در نظر گرفتن عوامل متعددی مانند شفافیت، انصاف، مسئولیت‌پذیری، امنیت، تعصب و مقررات چند وجهی است.
 
مزایای مدیریت هوش مصنوعی
حاکمیت هوش مصنوعی به سازمان‌ها کمک می‌کند تا خطرات و هزینه‌های مرتبط با سازمان را کاهش دهند و در عین حال خطرات و هزینه‌های مرتبط را به حداقل برسانند. در ادامه مهمترین مزایای حاکمیت هوش مصنوعی آورده شده است:
 
۱- تضمین استفاده مسئولانه از هوش مصنوعی
حاکمیت هوش مصنوعی سازمان‌ها و سیستم‌های هوش مصنوعی را به روشی شفاف، اخلاقی و پاسخگو توسعه می‌دهد و از آن‌ها استفاده می‌کند. استفاده مسئولانه از هوش مصنوعی به ارتقای اعتماد عمومی در سیستم‌ها و فناوری‌های هوش مصنوعی کمک می‌کند و با تأثیر منفی آن‌ها مبارزه می‌کند.
 
۲- بهبود بهره‌وری
سیستم‌های هوش مصنوعی به خوبی اداره می‌شوند و با خودکار کردن وظایف اضافی، افزایش تصمیم‌گیری و به حداقل رساندن دامنه خطا‌ها به ارتقا بهره وری و کارایی کمک می‌کنند.
 
۳- بهبود عدالت
دسترسی بهتر به داده‌ها در حاکمیت هوش مصنوعی به ارتقای انصاف و برابری در جمع‌آوری داده‌ها کمک می‌کند، به پیش‌بینی‌های دقیق و جلوگیری از خطرات ناشی از نتایج کمک می‌کند.
 
۴- مشارکت و همکاری را تقویت می‌کند
حاکمیت هوش مصنوعی به طور قابل توجهی مشارکت و همکاری میان چندین ذینفع مانند دولت، صنعت، جامعه مدنی را تسهیل می‌کند. این به ارتقا درک عمومی مشترک از مزایای هوش مصنوعی و ایجاد راه‌حل‌های مشترک برای خطرات و چالش‌های هوش مصنوعی کمک می‌کند.
 
چالش‌های حکمرانی هوش مصنوعی
حاکمیت هوش مصنوعی می‌تواند مزایای زیادی را به همراه داشته باشد. با این حال، پیاده سازی حاکمیت هوش مصنوعی ممکن است با چالش‌های زیادی همراه باشد، از جمله:
 
کیفیت داده: هوش مصنوعی برای تولید نتایج دقیق، سازگار و قابل اعتماد به داده‌های باکیفیت نیاز دارد. با این حال، دستیابی به جمع‌آوری، تمیز کردن و تجزیه و تحلیل داده‌های مناسب در برخی از مواقع می‌تواند دشوار باشد. این چالش به ویژه در هنگام اعتبار سنجی داده‌های ورودی دشوار است.
تعصب: این مورد زمانی اتفاق می‌افتد که داده‌های مورد استفاده بر روی معیار‌های مناسبی تمرکز نداشته باشند، برچسب‌های نادرست داشته باشند و موارد مهم را پوشش ندهند. همه این موارد می‌تواند منجر به نتایج تبعیض آمیز شود. تعصب در پیاده سازی هوش مصنوعی معمولاً از مجموعه داده‌هایی ناشی می‌شود که اطلاعات جامعی را به اندازه کافی ارائه نمی‌دهند.
الزامات انطباق: نهاد‌های نظارتی و استاندارد‌های صنعت، سازمان‌ها را ملزم می‌کنند تا الزامات خاصی را برای حفاظت از داده‌ها رعایت کنند. صنایع ملزم هستند تا امور مالی و مراقبت‌های بهداشتی را رعایت کنند تا از جریمه‌ها و آسیب‌های اعتباری در امان بمانند.
شفافیت: الزامات قانونی برای شفافیت می‌تواند چالش مهمی برای سیستم‌های هوش مصنوعی مبتنی بر یادگیری ماشین باشند. این سیستم‌ها ذاتاً شفاف نیستند و بسیاری از متخصصان هوش مصنوعی نمی‌دانند که سیستم‌هایشان چگونه کار می‌کند.
مانیتورینگ: حاکمیت هوش مصنوعی برای دستیابی به میزانی از دید مورد نیاز برای شناسایی تخلفات، تشخیص مسائل، ثبت اطلاعات برای اهداف حسابرسی نیاز به نظارت دارد.
 
راهکار‌های مدیریت هوش مصنوعی
سازمان‌های می‌توانند با اجرای رویکرد حریم خصوصی به طراحی هوش مصنوعی و حریم خصوصی داده‌ها به عنوان دو جزء از چرخه حیات به بسیاری از مسائل پاسخ دهند. در اینجا ما راه حل‌هایی را معرفی می‌کنیم که می‌تواند به حل چالش‌های حاکمیت هوش مصنوعی کمک کند:
 
حریم خصوصی: حریم خصوصی به اشتراک‌گذاری عمومی اطلاعات مربوط به یک مجموعه داده خاص را امکان‌پذیر می‌کند. این بخش شامل توصیف الگو‌های گروه‌ها است در حالی که اطلاعات افراد را در که مجموعه داده‌ها ذخیره شده است را پنهان می‌کند. هر سازمانی سیاست و خط‌مشی متفاوتی را برای حفظ حریم خصوصی دارند. تکنیک‌های رایج مانند افزودن داده‌های مصنوعی به عنوان نویز به مجموعه داده‌ها و در عین حال حفظ ویژگی پیش‌بینی داده‌ها مفید است.
K-Anonymization: این تکنیک تمام داده‌هایی را که می‌تواند یک فرد شناسایی کنند در مجموعه‌ای از داده‌ها متشکل از افراد دیگر با ویژگی‌های مشابه را ترکیب می‌کند. تکنیک K-Anonymization معمولاً به عنوان پنهان شدن در میان انبوه جمعیت شناخته می‌شود.
De-Identification: این تکنیک شامل پوشاندن ویژگی‌های حساس و‌شناسه‌های شخصی با مقادیر غیرحساس است. این تکنیک از مجموعه قوانین مختلف استفاده می‌کند. به عنوان مثال، می‌توانید برخی از شماره‌ها را با ستاره پنهان کنید و فقط آخرین رقم‌ها را نشان دهید.
 
نتیجه‌گیری
حاکمیت هوش مصنوعی به سازمان‌ها کمک می‌کند تا مزایای هوش مصنوعی را به حداکثر برسانند و خطرات و هزینه‌های مرتبط را کاهش دهند. ایجاد دستورالعمل‌ها، چارچوب‌های اخلاقی و مقررات برای اطمینان از عدالت و امنیت در سیستم‌های هوش مصنوعی بسیار مهم است.
  • مشترک شوید!

    برای عضویت در خبرنامه روزانه ایستنا؛ نشانی پست الکترونیکی خود را در فرم زیر وارد نمایید. پس از آن به صورت خودکار ایمیلی به نشانی شما ارسال میشود، برای تکمیل عضویت خود و تایید صحت نشانی پست الکترونیک وارد شده، می بایست بر روی لینکی که در این ایمیل برایتان ارسال شده کلیک نمایید. پس از آن پیامی مبنی بر تکمیل عضویت شما در خبرنامه روزانه ایستنا نمایش داده میشود.

    با عضویت در خبرنامه پیامکی آژانس خبری فناوری اطلاعات و ارتباطات (ایستنا) به طور روزانه آخرین اخبار، گزارشها و تحلیل های حوزه فناوری اطلاعات و ارتباطات را در هر لحظه و هر کجا از طریق پیام کوتاه دریافت خواهید کرد. برای عضویت در این خبرنامه، مشترکین سیمکارت های همراه اول لازم است عبارت 150 را به شماره 201464 و مشترکین سیمکارت های ایرانسل عبارت ozv ictn را به شماره ۸۲۸۲ ارسال کنند. دریافت موفق هر بسته خبری که محتوی پیامکی با حجم ۵پیامک بوده و ۴ تا ۶ عنوان خبری را شامل میشود، ۳۵۰ ریال برای مشترک هزینه در بردارد که در صورتحساب ارسالی از سوی اپراتور مربوطه محاسبه و از اعتبار موجود در حساب مشترکین سیمکارت های دائمی کسر میشود. بخشی از این درآمد این سرویس از سوی اپراتور میزبان شما به ایستنا پرداخت میشود. مشترکین در هر لحظه براساس دستورالعمل اعلامی در پایان هر بسته خبری قادر خواهند بود اشتراک خود را در این سرویس لغو کنند. هزینه دریافت هر بسته خبری برای مشترکین صرفا ۳۵۰ ریال خواهد بود و این هزینه برای مشترکین در حال استفاده از خدمات رومینگ بین الملل اپراتورهای همراه اول و ایرانسل هم هزینه اضافه ای در بر نخواهد داشت.