OpenAI مدعی شد: هکرهای چینی و ایرانی در حملات سایبری و فیشینگ از ChatGPT و مدلهای زبانی استفاده میکنند
OpenAI در گزارشی جدید ادعا میکند هکرهای چینی و ایرانی از ChatGPT برای طراحی حملات سایبری استفاده میکنند.
OpenAI وقوع بیش از ۲۰ حملهی سایبری را تأیید کرده است که همگی توسط ChatGPT طراحی شدهاند. گزارش OpenAI نشان میدهد که هوش مصنوعی مولد برای اجرای حملات فیشینگ هدفمند، رفع باگ و توسعهی بدافزار و سایر فعالیتهای مخرب مورد استفاده قرار میگیرد.
گزارش جدید OpenAI، دو حملهی سایبری را تأیید میکند که با بهرهگیری از مدلهای زبانی بزرگ و ChatGPT انجام شدهاند. یکی از حملات، شرکت Cisco Talos را هدف قرار داد؛ حملهای که توسط هکرهای چینی اجرا و در آن از روش فیشینگ هدفمند موسوم به SweetSpecter استفاده شد که شامل یک فایل فشردهی زیپ حاوی محتوای مخرب میشود.
در صورت دانلود و بازکردن فایل، زنجیرهای از ویروسها در سیستم کاربر ایجاد میشود. OpenAI کشف کرده که بدافزار SweetSpecter با استفاده از چندین حساب کاربری در ChatGPT و به منظور توسعهی اسکریپتها و شناسایی آسیبپذیریها در سیستم، با بهرهگیری از ابزارهای یادگیری ماشین طراحی شده است.
طبق ادعای OpenAI، دومین حملهی سایبری توسط گروهی هکری مستقر در ایران انجام شد. این گروه با بهرهگیری از ChatGPT، آسیبپذیریهای سیستمعامل macOS را شناسایی و اقدام به سرقت رمزعبور کاربران کرد. در حملهی سوم، گروه هکری دیگری با استفاده از ChatGPT، بدافزاری برای سیستمعامل اندروید توسعه داد که قادر است لیست مخاطبین، سوابق تماس و تاریخچهی مرورگر را سرقت، موقعیت دقیق دستگاه را شناسایی و به فایلهای موجود در دستگاههای آلوده دسترسی پیدا کند.
تمامی حملات سایبری مذکور، با بهرهگیری از روشهای موجود توسعهی بدافزار انجام شدهاند و بر اساس گزارشها هیچ مدرکی مبنیبر ایجاد بدافزارهای نوین و پیچیده توسط ChatGPT یافت نشده است.
چنین حملاتی نشان میدهند که فریبدادن سیستمهای هوش مصنوعی برای تولید ابزارهای مخرب بسیار ساده است و هکرها بهراحتی میتوانند از این قابلیت سوءاستفاده کنند؛ اقدامی که چالش جدیدی را در حوزهی امنیت سایبری ایجاد میکند، چرا که هر فردی با دانش فنی لازم میتواند ChatGPT را به سمت تولید محتوای مخرب سوق دهد. محققان امنیت سایبری بهطور مداوم در تلاشاند تا آسیبپذیریهای موجود را شناسایی و برطرف کنند.
خالق ChatGPT میگوید با هدف جلوگیری از سوءاستفاده از هوش مصنوعی، به بهبود و ارتقای مستمر مدلهای خود ادامه خواهد داد. در همین راستا، OpenAI با تیمهای داخلی ایمنی و امنیت همکاری نزدیکی برقرار خواهد کرد و متعهد شده است که یافتههای تحقیقاتی خود را با سایر فعالان صنعت و جامعهی علمی به اشتراک بگذارد و از وقوع چنین رویدادهای نامطلوبی جلوگیری کند.