امنیت

اینترنت و شبکه

فناوری اطلاعات

August 13, 2020
12:59 پنجشنبه، 23ام مردادماه 1399
کد خبر: 115148

«دیپ فیک» تیغ برنده مجرمان سایبری در آینده

هوش مصنوعی(AI) یکی از فناوری‌های نوظهور است که این روزها با سرعتی بالا در حوزه‌های مختلف از بازی و سرگرمی گرفته تا آموزش، سلامت، روبات‌ها، امور مالی و بانکداری، کشاورزی، حمل و نقل و ترافیک و… به کار گرفته می‌شود. هرچند هدف فعالان حوزه هوش مصنوعی، تنها رفاه مردم جهان و سرعت بخشیدن به روند اجرای پروژه‌های مختلف بوده است اما قابلیت‌های عظیم این فناوری توجه مجرمان سایبری را نیز جلب کرده و با روش‌های گوناگون به‌دنبال سوء‌استفاده از هوش مصنوعی هستند که این موضوع نگرانی‌هایی را رقم زده است. اما بیشترین خطرات این فناوری پرکاربرد در سال‌های آینده کدام هستند؟
بررسی خطرات هوش مصنوعی با 4شاخص
پس از ارائه گزارش دانشمندان یک دانشگاه تحقیقاتی واقع در لندن با نام University College London)UCL) و هشدار آنها درباره خطرات بالقوه هوش مصنوعی در ‌آینده، یک نشست دو روزه با حضور 31 متخصص حوزه هوش مصنوعی برگزار شد تا مخاطرات این فناوری در 15سال آینده مورد بحث و بررسی قرار بگیرد. هرچند ابتدا قرار بود برخی از دانشجویان و علاقه‌مندان به این حوزه نیز در این نشست حضور داشته باشند ولی به‌دلیل شیوع کرونا این موضوع عملی نشد و این نشست با جمعیتی کمتر از حد انتظار برپا شد. در مقابل، تعداد بیشتری از علاقه‌مندان موفق شدند بحث و گفت‌و‌گوهای این نشست را در فضای مجازی و به‌صورت آنلاین مشاهده کنند.
در این نشست از اقشار دانشگاهی، بخش خصوصی، پلیس، دولت و آژانس‌های امنیتی دولتی حضور داشتند و شرکت‌کننده‌ها بر اساس چهار شاخص، نگرانی‌های خود از هوش مصنوعی در آینده را دسته‌بندی کردند. یکی از این شاخص‌ها میزان زیانی است که هوش مصنوعی می‌تواند ایجاد کند. پتانسیل هوش مصنوعی برای سوء‌استفاده مجرمان و اینکه هوش مصنوعی چقدر می‌تواند انجام یک جرم را آسان‌تر کند از دیگر شاخص‌هایی بودند که در این نشست مورد بررسی قرار گرفت. یکی دیگر از شاخص‌ها هم این بود که توقف جرم صورت گرفته با کمک هوش مصنوعی تا چه حد برای پلیس و… سخت خواهد بود. آنچه همه این متخصصان متفق القول بر آن تأکید داشتند این بود که اگر از هوش مصنوعی استفاده درستی نشود می‌تواند به روش‌های گوناگون به جامعه آسیب برساند. به گفته این گروه، تهدیدات هوش مصنوعی از بی‌اعتبار کردن چهره‌های خاص سیاسی و معروف گرفته تا تأثیرگذاری بر افکار عمومی و اخاذی وجوه با جعل بستگان شخص در یک تماس ویدئویی و… را شامل می‌شود بنابراین باید برای مقابله با این خطرات آماده شویم.
شرکت‌کنندگان در این نشست، بیشتر مشکلات را ناشی از توسعه و تکرار استفاده از هوش مصنوعی برای موارد خلاف می‌دانند. به‌عنوان مثال «متیو کالدول» یکی از شرکت‌کنندگان در این نشست گفت: در محیط آنلاین که دیتا یک ثروت به‌شمار می‌رود و اطلاعات، قدرت است مجرمان سایبری وسوسه می‌شوند تا از قابلیت‌های هوش مصنوعی که این روزها بسیار مورد توجه قرار گرفته سوء‌استفاده کنند. این متخصص حوزه سایبری ادامه داد: برخلاف بسیاری از جرایم سنتی، جرایم دیجیتال بارها به اشتراک گذاشته شده، تکرار می‌شوند و حتی در برخی موارد دستاوردهای ناشی از این اعمال مجرمانه به فروش می‌رسد. اگر این مجرمان که از هوش مصنوعی سوء‌استفاده می‌کنند حمله‌های خود را با هک‌های DoS پیوند بزنند بی‌شک می‌توانند مشکلات بیشتری ایجاد کنند.
پروفسور «شان جانسون» یکی دیگر از افراد حاضر در این نشست نیز گفت: ما در دنیایی زندگی می‌کنیم که هر تغییری فرصت‌هایی جدید می‌سازد که این فرصت‌ها می‌توانند خوب یا بد باشند. بنابراین با علم به خطرات و تهدیدهای سایبری باید سیاستمداران، آژانس‌های امنیت و… تلاش کنند تا مقابل این اتفاقات بایستند و همیشه یک گام از مجرمان جلوتر باشند. این نخستین نشست با موضوع تهدیدهای آینده تکنولوژی‌های نوظهور به شمار می‌رود و به نظر می‌رسد باید چنین نشست‌هایی در زمینه سایر فناوری‌ها نیز برپا شود تا بتوان با ابزاری قویتر به مقابله با مجرمان سایبری پرداخت.
خطرسازی هوش مصنوعی
نخستین موضوعی که در این نشست مورد بررسی قرار گرفت خطرات بالای هوش مصنوعی در آینده بود که در رأس آنها فناوری دیپ فیک (Deep Fake) قرار دارد. از نگاه فعالان حوزه هوش مصنوعی، دیپ فیک‌ها این توانایی را دارند که اخبار را نیز تحت تأثیر قرار دهند و به‌راحتی یک خبر جعلی را در کوتاه‌ترین زمان ممکن به دست مردم برسانند. با وایرال شدن یک ویدئوی دستکاری شده، به زحمت می‌توان برای کاربرانی که با سرعت درحال دست به دست کردن این ویدئوهای تقلبی هستند یادآور شد که موضوع چیز دیگری است و این ویدئو اصلی نیست. دیپ فیک همچنین می‌تواند دموکراسی را در برخی کشورها مورد حمله قرار دهد به‌عنوان مثال در امریکا سخنرانی دستکاری شده نانسی پلوسی رئیس مجلس نمایندگان امریکا با فناوری دیپ فیک در سال گذشته، بیش از 2.5میلیون بازدید در فیس‌بوک داشت و این موضوع نگرانی‌های زیادی را ایجاد کرد.مقابله با دیپ فیک برای امریکا که اکنون در آستانه انتخابات 2020 قرار گرفته بشدت حیاتی است چراکه این فناوری می‌تواند به‌راحتی در نتیجه انتخابات تأثیرگذار باشد.
مؤسسه تحقیقاتی Future Advocacy در بریتانیا نیز در این نشست نمونه‌هایی از دیپ فیک‌ها در فضای سیاسی کشورهای مختلف را به‌عنوان نمونه ارائه کرد. هرچند برخی ویدئوهای دیپ فیک که به طور مشابه از هوش مصنوعی برای ایجاد فیلم‌های جعلی استفاده کرده بودند هیچ خطری متوجه جامعه نمی‌کردند اما نشان از پتانسیل دیپ فیک، برای تأثیرگذاری در دنیای سیاست و ایجاد تغییراتی ناخواسته دارند.با اینکه اکنون با کمک برخی الگوریتم‌ها می‌توان دیپ فیک‌های آنلاین را تشخیص داد ولی همچنان راه‌های بسیاری برای انتشار این ویدئوهای دستکاری شده وجود دارد که این موضوع می‌تواند سبب بی‌اعتمادی مردم به محتواهای صوتی و تصویری شود.
یکی دیگر از مواردی که در رده خطرهای بالای هوش مصنوعی قرار می‌گیرد، خودروهای خودران هستند. دراین نشست عنوان شد امکان دارد در آینده از این خودروهای بدون سرنشین به‌عنوان مکانیسمی برای حمل و انتقال مواد منفجره و اسلحه استفاده شود حتی برخی معتقدند شاید تروریست‌ها در حملات انتحاری از این خودروها کمک بگیرند. از دیگر موارد خطرناک استفاده از هوش مصنوعی می‌توان به فیشینگ‌های سازماندهی شده با استفاده از قابلیت فناوری هوش مصنوعی اشاره کرد که می‌تواند هم نشت اطلاعاتی بسیار گسترده‌ای به همراه داشته باشد و هم به سیستم‌های بانکی ضرباتی جبران‌ناپذیر وارد کند.
ایجاد اختلال عمدی در سیستم‌های هوش مصنوعی نیز یکی از بزرگترین خطرات این فناوری به‌شمار می‌رود چرا که این اختلال می‌تواند بسته به توان فرد یا گروه ایجاد‌کننده این اختلال، دردسرها و خسارات جدی ایجاد کند. یکی از مواردی که بسیاری از فعالان حوزه فناوری به آن اشاره دارند روبات‌های قاتل هستند. این افراد معتقدند در آینده امکان دارد افرادی که صلاحیت لازم را ندارند هوش مصنوعی به کار رفته در روبات‌ها را تحت کنترل خود درآورند تا این روبات‌ها عملاً همه خواسته‌هایشان را عملی کنند. لزوماً همه این خواسته‌ها اخلاقی نیستند و گاه می‌توانند دردسر زیادی برای یک جامعه ایجاد کنند. باج‌خواهی‌ها و اخاذی‌های گسترده نیز بخشی دیگر از نگرانی‌های عمده ناشی از سوء‌استفاده از هوش مصنوعی در آینده بود که در این نشست مطرح شد.
سلامت، در تیررس مجرمان سایبری
شرکت‌کنندگان در این نشست به نگرانی‌های خود در زمینه خطرات میانی خود در زمینه توسعه هوش مصنوعی نیز اشاره کردند. کلاهبرداری و فروش سرویس‌ها و محصولات با سوء‌استفاده از عنوان هوش مصنوعی و همچنین تبلیغات هدفدار، در این دسته از نگرانی‌های متخصصان حوزه هوش مصنوعی جای می‌گیرد. این نگرانی‌ها وقتی بیشتر می‌شود که پای سلامت مردم در میان باشد. سوء‌استفاده از هوش مصنوعی در زمینه سلامت و کلاهبرداری‌هایی که در تبلیغات و… با کمک هوش مصنوعی انجام می‌گیرد در این دسته جای می گیرند. یکی از نمونه‌های آن هم تبلیغات دارو از زبان پزشکان با سوء‌استفاده از فناوری هوش مصنوعی و در قالب دیپ فیک است که می‌تواند بسیار دردساز و نگران‌کننده باشد.
بخشی دیگری از این نگرانی‌ها سوء‌استفاده از روبات‌های نظامی و همچنین ساماندهی حملات پهپادی با سوء‌استفاده از هوش مصنوعی است. در این نشست فعالان حوزه هوش مصنوعی سوء‌استفاده از فناوری تشخیص چهره در حکومت‌های سرکوبگر، دستکاری در بازار سهام و سرمایه و ایجاد مشکلات مالی عمدی گسترده در بازار یک کشور را از دیگر موارد نگرانی خود در صورت سوء‌استفاده از هوش مصنوعی در آینده عنوان کردند.
محققان در این نشست به خطراتی با شدت کمتر سوء‌استفاده از هوش مصنوعی نیز اشاره داشتند. افراد شرکت‌کننده در این نشست یکی از نگرانی‌های این دسته از خطرات را روبات‌های سارق دانستند که زمینه‌ساز حمله به محتواهای هنری و موسیقی و سرقت آنها و ایجاد هنر جعلی(fake art) می‌شود. هرچند هنرمندان نسبت به این موضوع نگران هستند اما محققان امکان بروز این حملات با استفاده از هوش مصنوعی را کمتر می‌دانند و آن را در دسته کم خطرترین‌ها رده‌بندی کردند. سوء‌استفاده از دستیارهای هوش مصنوعی نیز یکی دیگر از مواردی است که محققان در این دسته از آن نام می‌برند.
 
  • مشترک شوید!

    برای عضویت در خبرنامه روزانه ایستنا؛ نشانی پست الکترونیکی خود را در فرم زیر وارد نمایید. پس از آن به صورت خودکار ایمیلی به نشانی شما ارسال میشود، برای تکمیل عضویت خود و تایید صحت نشانی پست الکترونیک وارد شده، می بایست بر روی لینکی که در این ایمیل برایتان ارسال شده کلیک نمایید. پس از آن پیامی مبنی بر تکمیل عضویت شما در خبرنامه روزانه ایستنا نمایش داده میشود.

    با عضویت در خبرنامه پیامکی آژانس خبری فناوری اطلاعات و ارتباطات (ایستنا) به طور روزانه آخرین اخبار، گزارشها و تحلیل های حوزه فناوری اطلاعات و ارتباطات را در هر لحظه و هر کجا از طریق پیام کوتاه دریافت خواهید کرد. برای عضویت در این خبرنامه، مشترکین سیمکارت های همراه اول لازم است عبارت 150 را به شماره 201464 و مشترکین سیمکارت های ایرانسل عبارت ozv ictn را به شماره ۸۲۸۲ ارسال کنند. دریافت موفق هر بسته خبری که محتوی پیامکی با حجم ۵پیامک بوده و ۴ تا ۶ عنوان خبری را شامل میشود، ۳۵۰ ریال برای مشترک هزینه در بردارد که در صورتحساب ارسالی از سوی اپراتور مربوطه محاسبه و از اعتبار موجود در حساب مشترکین سیمکارت های دائمی کسر میشود. بخشی از این درآمد این سرویس از سوی اپراتور میزبان شما به ایستنا پرداخت میشود. مشترکین در هر لحظه براساس دستورالعمل اعلامی در پایان هر بسته خبری قادر خواهند بود اشتراک خود را در این سرویس لغو کنند. هزینه دریافت هر بسته خبری برای مشترکین صرفا ۳۵۰ ریال خواهد بود و این هزینه برای مشترکین در حال استفاده از خدمات رومینگ بین الملل اپراتورهای همراه اول و ایرانسل هم هزینه اضافه ای در بر نخواهد داشت.