یک کارشناس امنیت سایبری چهار نگرانی در مورد هوش مصنوعی را عنوان کرده است. این نگرانیها در حالی عنوان میشوند که این فناوری همچنان در حال تکامل است.
به گزارش روزنامه سان، امروزه هوش مصنوعی می تواند کارهایی مانند نوشتن مقاله، تولید کدهای پیچیده و خلاصه کردن اسناد طولانی را در چند ثانیه انجام دهد. تعداد کمی از بخشها توانستهاند به پیشرفت چشمگیری که در مدت زمان کمی هوش مصنوعی به آن دست یافته برسند.
در تنظیمات پیشرفته تر، هوش مصنوعی به ساخت واکسن و محاسبه معادلات پیچیده فیزیک برای دانشمندان کمک میکند. اینها تنها چند نمونه از شاهکارهای چشمگیر متعددی است که این فناوری تا به امروز انجام داده است. با این حال، مانند همه پیشرفتهای تکنولوژیکی، مسائل و چالشهای زیادی نیز پیرامون هوش مصنوعی پیچیده وجود دارد. یوسف الاشاب، مشاور و مهندس امنیت ابری و مشاور « DevOps» و مهندس « itcertificate.org» نگرانیهای کلیدی خود در این باره را با روزنامه سان در میان گذاشت.
حملات سایبری با استفاده از هوش مصنوعی
الاشاب گفت: «ما میتوانیم پیش بینی کنیم که مجرمان سایبری از هوش مصنوعی برای توسعه روشهای حمله پیچیده استفاده کنند.»
این حملات شامل ایمیلهای «فیشینگ نیزهای یا هدفمند» ایجاد شده توسط هوش مصنوعی یا بدافزارهای مبتنی بر این فناوری است که سازگار میشوند و تکامل مییابند. «فیشینگ نیزهای» یک تلاش هدفمند برای سرقت اطلاعات حساس از یک قربانی خاص است. این نوع «فیشینگ» اغلب برای دسترسی به حساب های مالی و شخصی قربانی انجام میشود. کارشناسان اخیرا بدافزارهای جهش یافته را مشاهده کردهاند. عوامل تهدید و حملات سایبری از ChatGPT OpenAI برای تولید بدافزارهای مخرب استفاده میکردند.
هوش مصنوعی دشمن
الاشاب گفت: «هوش مصنوعی دشمن» یکی دیگر از نگرانیهای اصلی کارشناسان است و به سوء استفاده از آسیب پذیریها در سیستمهای هوش مصنوعی اشاره دارد. این آسیب پذیریها در سیستمهای هوش مصنوعی میتواند به هکرها کمک کند تا اقدامات امنیتی را دور بزنند یا مدلهای هوش مصنوعی را دستکاری کنند تا خروجی های گمراه کننده بدهند. یکی از نمونههای آن دستکاری هوش مصنوعی برای به خطر انداختن محرمانه بودن اطلاعات بیماران یا مشتریان به منظور سرقت دادهها یا پول آنها است.
جعلهای عمیق
همزمان با پیچیده تر شدن هوش مصنوعی، جعلهای عمیق و اطلاعات نادرست نیز همچنان یکی از نگرانیهای اصلی خواهد بود. الاشاب در این باره گفت: جعلهای عمیق تولید شده توسط هوش مصنوعی، که تصاویر، صدا یا ویدیوها را دستکاری میکنند، خطراتی را از نظر انتشار اطلاعات نادرست و تأثیر بالقوه بر افکار عمومی یا آسیب رساندن به شهرت به همراه دارند. بازیگران عرصه جعل عمیق در حال حاضر از هوش مصنوعی برای انجام حملات شبیهسازی شده صوتی استفاده میکنند که با تقلید از صدای یک فرد، خانواده یا دوستان او را بدون پول فریب میدهند.
نگرانیهای اخلاقی
البته، این انتظار بیجا نیست که با تکامل هوش مصنوعی، نگرانیهای اخلاقی و نگرانیهای درباره امنیت حریم خصوصی بیشتری ایجاد شود. الاشاب گفت: افزایش اتکا به هوش مصنوعی در امنیت سایبری سوالاتی را در مورد حریم خصوصی دادهها، تعصب الگوریتمی و استفاده اخلاقی از سیستمهای هوش مصنوعی ایجاد میکند. تعدادی از الگوریتمهای هوش مصنوعی در گذشته نشان دادهاند که تعصبات نژادی و جنسیتی در این فناوری رایج است.
امروزه هوش مصنوعی نیز به طور فزایندهای در دادگاه ها مورد استفاده قرار میگیرد، با این حال، فناوری هوش مصنوعی مستعد عدم دقت و حتی تبعیض است. برای مقابله با چنین نگرانیهایی، کارشناسان در حال تماس با آژانسهای قانونگذاری برای تنظیم مقررات هستند. اخیرا، یونسکو توصیه نامهای درباره اخلاق هوش مصنوعی برای تعیین استاندارد جهانی برای نهادهای حاکم ایجاد کرده است.