کارشناسان معتقدند هوش مصنوعی و یادگیری ماشین، در سال ۲۰۲۱ میلادی برای پایگاه گستردهتری از کاربران در دسترس خواهد بود و اگرچه زمینههای دانش داده برای بهرهگیری از هوش مصنوعی تاکنون ضروری بوده است، اما این روند تغییر میکند و به سمتی میرود که شامل هر کسی در سازمان که برای تصمیمگیری هوشمندتر به دسترسی به داده احتیاج دارد، شود.
سال پرهیاهو و شلوغ ۲۰۲۰ بسیاری از صاحبان صنایع را در مورد آینده پیش رو به فکر فرو برده است. اواخر هر سال، پیشبینیهای زیادی را از طرف مدیران صنعت و تحلیلگران صنعت و تحلیلگران داده ارایه میشود که مربوط به سال آینده است. امسال، این پیشبینیها سندی ۴۹ صفحهای از بیش از ۳۰ شرکت است. مرکز ملی فضای مجازی در مقاله خود خلاصهای از پیشبینیها پیرامون سال ۲۰۲۱ وجود دارد که به مباحثی اختصاص یافته که بیشترین حدسها را به خود اختصاص داده که بخشی از آن مربوط به هوش مصنوعی است.
در سال جاری تعداد زیادی از پیشبینیها در مورد هوش مصنوعی و یادگیری ماشین (ML) بوده است. در واقع پیشبینیها در این باره آنقدر زیاد بود که خود به چند زیر مجموعه قابل توجه تقسیم میشوند. یک مجموعه از پیشبینیها به چگونگی دموکراتیک شدن، در دسترس بودن، مقرون به صرفه بودن و بالغ شدن هوش مصنوعی متمرکز است.
بورگمن از Starburst میگوید: هوش مصنوعی و یادگیری ماشین، برای پایگاه گستردهتری از کاربران در دسترس خواهد بود. اگرچه زمینههای دانش داده برای بهرهگیری از هوش مصنوعی تاکنون ضروری بوده است، اما این روند تغییر میکند و به سمتی میرود که شامل هر کسی در سازمان که برای تصمیمگیری هوشمندتر به دسترسی به داده احتیاج دارد، شود.
الکس پینا، مهندس ارشد تحقیق و توسعه در Linode، فکر میکند که اقتصاد هوش مصنوعی نیز قابلیت دسترسی آن را بهبود میبخشد و میگوید: با کاهش هزینه خدمات GPU ابری، مشاغل کوچکتر میتوانند از هوش مصنوعی استفاده کنند. رایان ویلکینسون، مدیر ارشد فناوری در IntelliShift، موافق است و اظهار میکند: با رسیدن سختافزار به نقطهای که از هوش مصنوعی پشتیبانی کند، نرمافزارهای ML و AI که در فضای ابری اجرا میشوند سریعتر از هر زمان دیگر به بلوغ میرسند.
رایوهی فوجیماکی، بنیانگذار و مدیرعامل dotData، یادگیری ماشین خودکار (AutoML) را عامل دیگری برای دستیابی به هوش مصنوعی برای دانشمندان در حوزههای دیگر غیر از داده میداند و پیشبینی میکند: در سال ۲۰۲۱ ما شاهد افزایش AutoML 2.0 خواهیم بود که پلتفرمهای "بدون کد" را به سطح بعدی میرسانند. فوجیماکی همچنین احساس میکند که AutoML به فراتر بردن موارد استفاده از تجزیه و تحلیلهای پیشبینی کننده کمک خواهد کرد، زیرا همچنین میتواند بینش ارزشمندی از روندها، رویدادها و اطلاعات گذشته ارائه دهد که به کسبوکارها اجازه میدهد تا مجهولات ناشناخته، روندها و الگوهای دادهای که مهم هستند، اما هیچکس به درست بودن آنها شک نکرده است را کشف کنند.
هوش مصنوعی مسئولیتپذیر و اخلاقی
یکی دیگر از موضوعات مهم، موضوع مسئولیتپذیری و اهمیت عمومی اعتماد و توضیحپذیری در مدلهای AI / ML است. امی هودلر، مدیر تجزیه و تحلیل نمودارها و برنامههای هوش مصنوعی در Neo4j، میگوید: اگرچه بحث در مورد هوش مصنوعی مسئولانه به دلیل همهگیری متوقف شده است، اما نیاز به هوش مصنوعی مسئولانه تغییر نکرده و نیاز به شروع بحث عمومی مثل همیشه مهم است.
روملیوتیس از اوریلی در مورد پیشرفت محدود پیشین و چگونگی فعالیتهای عمده آن در سال ۲۰۲۱ با چنین آرایشی موافق است: تا کنون، استفاده شرکتهای بزرگ از ML مسئولیتپذیر در بهترین حالت متوسط و واکنشی بوده است. در سال آینده، افزایش مقررات (مانند GDPR و CCPA)، ضدانحصاری و سایر نیروهای قانونی شرکتها را مجبور به اتخاذ رویههای مسئولانهتر در ML خواهد کرد. نیک الپرین، مدیرعامل شرکت آزمایشگاه دومینو، از همین منظر نظراتش را بیان کرده است: استانداردهای حفظ حریم خصوصی که به سرعت در حال تحول هستند و اولین بار با GDPR و اکنون CCPA در کالیفرنیا مشاهده میشوند، در سال ۲۰۲۱ نیاز به توجه به شفافیت و امنیت بیشتر مدلهای هوش مصنوعی خواهد داشت.
بدون رویکرد هوش مصنوعی مسئولانه، اعتماد به C-Suite و اعضای تیم برای مدلهای هوش مصنوعی که در حال طراحی آن هستند دشوار میشود و بدون این اعتماد، استفاده از هوش مصنوعی برای منافع تجاری تقریباً غیرممکن است. جوآو اولیویرا، مدیر راه حلهای تجاری در SAS، میگوید: "هرچه دید تصمیم گیرندگان برای نتایج هوش مصنوعی بیشتر باشد، اعتماد بیشتری به تصمیماتی که توسط مدلها گرفته میشود، دارند. اعتمادپذیری به سمت به کارگیری و استفاده میانجامد. نظارت انسان و توضیح مدلها در هر مرحله از یک فرآیند تصمیمگیری، باعث پذیرش هوش مصنوعی و تصمیم گیری خودکار میشود.
سانتیاگو ژیرالدو، مدیر ارشد بازاریابی محصولات Cloudera در یادگیری ماشین، نه تنها موافق است، بلکه ادامه میدهد که، برای تجارت، به کارگیری هوش مصنوعی به این ترتیب از نظر وجودی ضروری است. وی اینگونه بیان میکند: در سال ۲۰۲۱، توانایی یک کسب و کار در جلب اعتماد به مدل خود – تا حدی که بتوانند بر اساس بینش ناشی از هوش مصنوعی خود عمل کنند – تعیین کننده بقای آنها خواهد بود.
سندی مایک، معاون اصلی راهحلهای صنعتی به عنوان یکی دیگر از مدیران Cloudera میگوید: در ۱۲ تا ۲۴ ماه آینده خواهیم دید که هوش مصنوعی اخلاقی در مرکز توجه قرار میگیرد. بینا آمانات، مدیر اجرایی موسسه هوش مصنوعی Deloitte فکر میکند ۲۰۲۱ سال عملیاتی برای اخلاق هوش مصنوعی خواهد بود و میگوید: امکان اعتماد به سیستمهای AI در مرکز هر مکالمه AI است. امانات احساس میکند که شرکتها در تصمیم گیری درباره ابعاد اخلاقی استراتژیهای هوش مصنوعی خود شروع به کار میکنند و مدلهای هوش مصنوعی را که میتوانند برای پیامدهای اخلاقی تحت عنوان MLOps اداره شوند، به کار میگیرند. در واقع، گزارش اجرایی سالانه فناوری RELX تائیدیهای را برای این امر تأیید میکند و میگوید: از هر ۱۰ رهبر تجاری بیش از ۸ نفر معتقدند که ملاحظات اخلاقی یک اولویت استراتژیک در طراحی و اجرای سیستمهای هوش مصنوعی آنها است.
دومینو داتا لبس الپرین، با نادیده گرفتن خطر هوش مصنوعی اخلاقی، پیش بینی میکند که در سال ۲۰۲۱، ما آگاهی گستردهتری از صنایع راجع به پیامدهای حقوقی و خطرات تصمیمات خودکار خواهیم دید. ممکن است دعاوی عمومی مربوط به تبعیض یا مسئولیت را که شامل تصمیمات گرفته شده توسط مدلهای هوش مصنوعی است را ببینیم. اما همه پیشبینیها به سمت نابودی و تاریکی نیست.
جیمز کینگستون، معاون همکاری و تحقیقات نوآوری، محقق هوش مصنوعی و مدیر HAT-LAB در Dataswift، مقداری هویج در انتهای این چوب گذاشته و توضیح میدهد که برای مقیاسگذاری برای آینده با ترکیب اصول اخلاقی، سازگاری و حفظ حریم خصوصی با زیرساختهای فناوری ساخته شده، جامعه به سمت سیستمی حرکت خواهد کرد که ارزش دادهها به نفع افراد و بنگاههای اقتصادی باشد.