سرقت اطلاعات جیمیل زنگ خطر را به صدا درآورد
پژوهشگران امنیتی متوجه شدند که آسیبپذیری ChatGPT میتواند اطلاعات شخصی کاربر را در خطر قرار دهد.
پژوهشگران امنیتی نشان دادند که چگونه میتوان از ChatGPT بهعنوان همدست در سرقت دادههای حساس استفاده کرد. آنها موفق شدند بدون آگاهشدن کاربر، اطلاعات شخصی را از جیمیل استخراج کنند.
آسیبپذیری ChatGPT را شرکت Radware با نام Shadow Leak معرفی کرد و اکنون برطرف شده؛ اما نمونهای روشن از ریسکهای نوظهور در هوش مصنوعی ایجنتمحور بهشمار میرود.
در این حمله از ضعف ایجنت هوش مصنوعی بهره گرفته شد؛ دستیارهایی که قادرند بدون نظارت مداوم کاربر، در وب جستوجو کنند یا به اسناد و ایمیلها دسترسی یابند. پژوهشگران با استفاده از Prompt Injection، دستورهای مخفی را در ایمیلی کاشتند که به صندوق جیمیل متصل به ابزار Deep Research (بخشی از ChatGPT) ارسال شده بود.
دستورها پس از فعالشدن ایجنت هوش مصنوعی، آن را وادار میکردند ایمیلهای منابع انسانی و دادههای شخصی را پیدا و به هکرها منتقل کند؛ بدون آنکه کاربر متوجه چیزی شود.
ردویر توضیح میدهد که برخلاف بیشتر حملات مشابه، در Shadow Leak دادهها مستقیماً از زیرساخت ابری OpenAI به بیرون نشت میکردند؛ موضوعی که باعث میشود روشهای معمول دفاع سایبری نتوانند آن را شناسایی کنند.
همین تکنیک میتواند در دیگر سرویسهای متصل به Deep Research مانند اوتلوک، گیتهاب، گوگل درایو و دراپباکس نیز برای دسترسی به قراردادها، یادداشتهای جلسات یا اطلاعات مشتریان به کار گرفته شود.