فناوری اطلاعات

November 8, 2022
15:41 سه شنبه، 17ام آبانماه 1401
کد خبر: 140177

به خاطر این ۵ ابزار هوش مصنوعی بهتر است به چشمانتان اعتماد نکنید!

اینترنت سرشار از اطلاعات گمراه‌کننده است که گاهی اوقات حتی متخصصان و حرفه‌ای هم فریب می‌خورند. در چند سال گذشته تعداد ابزارهای هوش مصنوعی به طور قابل توجهی افزایش پیدا کرده و به‌شدت پیچیده‌تر شده‌اند. در ادامه به ۵ مورد از این ابزارها می‌پردازیم که می‌توانند افراد زیادی را فریب دهند.
دیپ‌فیک
دیپ‌فیک به ابزارهای هوش مصنوعی گفته می‌شود که با استفاده از ویدیو‌ها و تصاویر افراد واقعی، ویدیو‌های جعلی ایجاد می‌کنند. به لطف این تکنولوژی و با صرف کمی زمان، هرکسی می‌تواند ویدیو‌های جعلی با استفاده از چهره‌ی افراد مختلف درست کند. به همین خاطر مثلا می‌توانند چهره‌ی یک بازیگر را روی چهره‌ی رییس جمهور آمریکا قرار دهند یا اینکه صرفا با جایگزین کردن دهان، حرف موردنظر خود را از طرف یک چهره‌ی مشهور مطرح کنند.
 
تا چند سال قبل امکان شبیه‌سازی صدای افراد با هوش مصنوعی وجود نداشت ولی حالا برای این کار هم ابزارهایی وجود دارد. این ابزارها می‌توانند به صورت زنده صدای فرد موردنظر را شبیه‌سازی کنند و این یعنی مثلا هکرها می‌توانند در تماس‌های تلفنی، از صدای افراد سوءاستفاده کنند. بنابراین در اینترنت بسیاری از ویدیو‌ها و صداهای حاشیه‌ساز را به عنوان دیپ‌فیک در نظر بگیرید مگر اینکه خلاف این موضوع ثابت شود.
 
ابزارهای هوش مصنوعی برای ایجاد تصاویر
در ماه‌های اخیر ابزارهای هوش مصنوعی که برای ایجاد تصاویر استفاده می‌شوند، سروصدای زیادی راه‌ انداخته‌اند. به عنوان مثال نقاشان و دیگر هنرمندان نگران این موضوع هستند که به‌زودی و با پیشرفت حیرت‌انگیز این ابزارها، تعداد زیادی از آن‌ها به‌زودی بیکار خواهند شد.
 
این ابزارهای هوش مصنوعی در کنار نقاشی‌‌ها و طراحی‌های حیرت‌انگیز، در زمینه‌ی ایجاد تصاویر واقعی هم عملکرد خیلی خوبی دارند. به عنوان مثال این ابزارها به کاربران اجازه می‌دهند که فقط بخشی از تصویر موردنظر را با توجه به محیط تصویر، تغییر دهند. به همین خاطر مثلا اگر یک نفر عروسک در دست خود گرفته، می‌توانید با هوش مصنوعی می‌توانید به راحتی این عروسک را به اسلحه تبدیل کنید. بنابراین این ابزارها هم امکانات زیادی را برای سوء‌استفاده ایجاد می‌کنند.
 
ایجاد ویدیو با هوش مصنوعی
بعد از همه‌گیری ابزارهای هوش مصنوعی برای ایجاد تصاویر، حالا شرکت‌ها می‌خواهند از همین روش برای ایجاد ویدیو‌ها استفاده کنند. به عنوان مثال شرکت متا موفق به توسعه‌ی ابزاری شده که می‌تواند با استفاده از هوش مصنوعی، ویدیو‌های کوتاه چند ثانیه‌ای ایجاد کند. اگرچه این ویدیو‌ها در حال حاضر با محدودیت‌های زیادی روبرو هستند، ولی در گذر زمان کیفیت و زمان آن‌ها به طور قابل توجهی افزایش پیدا می‌کند.
 
با وجود اینکه همین حالا هم ایجاد ویدیو‌های جعلی کار خیلی سختی نیست، اما در هر صورت با استفاده از این نوع ابزارها، بدون شک تعداد ویدیو‌های جعلی چندین برابر خواهد شد.
 
چت‌بات
در حال حاضر بسیاری از شرکت‌ها در سرتاسر جهان برای بخش قابل توجهی از ارتباط با مشتری، از چت‌بات‌های مبتنی بر هوش مصنوعی استفاده می‌کنند. مدل‌های هوش مصنوعی به حدی پیشرفته‌ شده‌اند که این سیستم‌ها می‌توانند در زمینه‌های مختلف مکالمات طبیعی با افراد برقرار کنند. زمانی که سوال در حوزه‌های مشخصی باشد، این سیستم‌های هوش‌ مصنوعی عملکرد بسیار خوبی دارند. به عنوان مثال اگر کاربران در حوزه‌های خاصی سوال فنی دارند، هوش مصنوعی می‌تواند تا حد زیادی به پرسش‌های آن‌ها پاسخ دهد.
 
در حال حاضر در شبکه‌های اجتماعی مانند توییتر، هزاران بات وجود دارد که البته این بات‌ها چندان پیچیده نیستند. اما حالا تکنولوژی هوش مصنوعی به حدی رسیده که یک بات در شبکه اجتماعی می‌تواند افراد زیادی را فریب دهد. حتی ممکن است هکرها با استفاده از تکنولوژی‌های مختلف، تصاویر، ویدیو‌ها و صداهایی را ایجاد کنند تا نشان دهند بات موردنظر یک فرد واقعی است.
 
نویسندگی با هوش مصنوعی
سیستم‌های هوش‌ مصنوعی در زمینه‌ی نوشتن متن‌های مختلف هم روز‌به‌روز بهتر می‌شوند. در کنار احتمال کنار گذاشتن انسان‌ها و استفاده از این ابزارها برای نوشتن متون، باید به پتانسیل این ابزارها برای ایجاد خبرهای جعلی هم اشاره کنیم. این یعنی کافی است یک بات هوش‌ مصنوعی را به عنوان یک شخصیت واقعی در شبکه‌های اجتماعی رها کنید و سپس با استفاده از همین ابزارهای پیشرفته، روزانه خبرهای جعلی جذابی را تولید کنید.
 
سخن آخر
با پیشرفت این نوع ابزارها، تشخیص تصاویر، ویدیو‌ها، نوشته‌ها و صداهای جعلی بسیار سخت‌تر از گذشته می‌شود. همین حالا ویدیو‌های دیپ‌فیک به حدی پیشرفت کرده‌اند که بسیاری از کاربران معمولی نمی‌توانند جعلی بودن آن‌ها را تشخیص دهند. به همین خاطر همین حالا ابزارهای هوش‌ مصنوعی مختلفی برای تشخیص این موارد توسعه پیدا می‌کند. این یعنی از هوش‌ مصنوعی برای مقابله با این فناوری استفاده می‌شود.
 
احتمالا این رویکرد فقط تا مدتی جواب می‌دهد و از سوی دیگر ممکن است همین روش سرعت پیشرفت ابزارهای دردسرساز را افزایش دهد. بنابراین با توجه به این موضوع، بهتر است در اینترنت تمام اطلاعات را با شک و تردید در نظر بگیرید و فقط در صورت تایید از سوی منابع معتبر، آن‌ها را باور کنید.
  • مشترک شوید!

    برای عضویت در خبرنامه روزانه ایستنا؛ نشانی پست الکترونیکی خود را در فرم زیر وارد نمایید. پس از آن به صورت خودکار ایمیلی به نشانی شما ارسال میشود، برای تکمیل عضویت خود و تایید صحت نشانی پست الکترونیک وارد شده، می بایست بر روی لینکی که در این ایمیل برایتان ارسال شده کلیک نمایید. پس از آن پیامی مبنی بر تکمیل عضویت شما در خبرنامه روزانه ایستنا نمایش داده میشود.

    با عضویت در خبرنامه پیامکی آژانس خبری فناوری اطلاعات و ارتباطات (ایستنا) به طور روزانه آخرین اخبار، گزارشها و تحلیل های حوزه فناوری اطلاعات و ارتباطات را در هر لحظه و هر کجا از طریق پیام کوتاه دریافت خواهید کرد. برای عضویت در این خبرنامه، مشترکین سیمکارت های همراه اول لازم است عبارت 150 را به شماره 201464 و مشترکین سیمکارت های ایرانسل عبارت ozv ictn را به شماره ۸۲۸۲ ارسال کنند. دریافت موفق هر بسته خبری که محتوی پیامکی با حجم ۵پیامک بوده و ۴ تا ۶ عنوان خبری را شامل میشود، ۳۵۰ ریال برای مشترک هزینه در بردارد که در صورتحساب ارسالی از سوی اپراتور مربوطه محاسبه و از اعتبار موجود در حساب مشترکین سیمکارت های دائمی کسر میشود. بخشی از این درآمد این سرویس از سوی اپراتور میزبان شما به ایستنا پرداخت میشود. مشترکین در هر لحظه براساس دستورالعمل اعلامی در پایان هر بسته خبری قادر خواهند بود اشتراک خود را در این سرویس لغو کنند. هزینه دریافت هر بسته خبری برای مشترکین صرفا ۳۵۰ ریال خواهد بود و این هزینه برای مشترکین در حال استفاده از خدمات رومینگ بین الملل اپراتورهای همراه اول و ایرانسل هم هزینه اضافه ای در بر نخواهد داشت.