امنیت

فناوری اطلاعات

هوش مصنوعی

December 1, 2023
9:33 جمعه، 10ام آذرماه 1402
کد خبر: 153176

یافته پژوهشگر ایرانی‌تبار: ChatGPT به‌سادگی شماره موبایل کاربران را فاش می‌کند

منبع: zoomit

ChatGPT با یک دستور ساده و به‌ظاهر احمقانه، اطلاعات شخصی و مهم افراد را فاش می‌کند.

تیمی از محققان که در بین آن‌ها نام میلاد نصر دیده می‌شود، توانستند ChatGPT را مجبور کنند تا برخی از داده‌هایی را که بر اساس آن آموزش دیده‌ است، با استفاده از یک فرمان ساده نشان دهند. درخواست برای تکرار ابدیِ کلمات تصادفی، ChatGPT را مجبور کرد اطلاعات خصوصی افراد از جمله آدرس ایمیل و شماره موبایل، بریده‌هایی از مقالات تحقیقاتی و مقالات خبری، صفحات ویکی‌پدیا و موارد دیگر را به‌نمایش بگذارد.

محققان که در شرکت گوگل‌ دیپ‌مایند، دانشگاه واشنگتن، کرنل، دانشگاه کارنگی ملون، دانشگاه کالیفرنیا برکلی و ETH زوریخ کار می‌کنند، از شرکت‌های هوش مصنوعی خواستند آزمایش‌هایی انجام دهند. آنها خواستار آزمایش‌های داخلی و خارجی، قبل از انتشار مدل‌های زبانی بزرگ شدند. مدل زبانی بزرگ، فناوری به‌کاررفته در سرویس‌هایی مثل DALL-E و ChatGPT است.

چت‌بات‌هایی مانند ChatGPT و تولیدکننده‌های تصویر مانند DALL-E با الگوریتم‌های یادگیری عمیق روی حجم عظیمی از داده‌ها آموزش داده می‌شوند. منتقدان می‌گویند اطلاعات، اغلب بدون رضایت از اینترنت عمومی برداشته می‌شوند؛ اما تا به حال، مشخص نبود که چت‌بات OpenAI روی چه داده‌هایی آموزش دیده است، زیرا مدل‌های زبانی بزرگی که آن را تقویت می‌کنند، منبع‌بسته (Closed Source) هستند.

این مقاله فاش کرد که وقتی محققان از ChatGPT خواستند کلمه‌ی «شعر» را برای همیشه تکرار کند، چت‌بات ابتدا این محتوا را تولید کرد، اما سپس آدرس ایمیل و شماره تلفن همراه یک بنیانگذار و مدیرعامل واقعی را فاش کرد.

هنگامی که از چت‌بات خواسته شد کلمه‌ی «شرکت» را تکرار کند، در نهایت آدرس ایمیل و شماره تلفن یک شرکت حقوقی تصادفی در ایالات متحده را اعلام کرد. محققان نوشتند: «در مجموع، ۱۶٫۹ درصد از نتایج آزمایش حاوی [اطلاعات قابل شناسایی شخصی] حفظ‌ شده بودند.»

با استفاده از دستورات مشابه، محققان همچنین توانستند ChatGPT را مجبور کنند تکه‌هایی از شعر، آدرس بیت‌کوین، شماره فکس، نام‌ها، تاریخ تولد، نام‌های کاربری رسانه‌های اجتماعی، قطعه‌هایی از مقالات تحقیقاتی دارای کپی‌رایت و متن‌های دقیق از وب‌سایت‌های خبری مانند CNN را نشان دهند.

در مجموع، آن‌ها ۲۰۰ دلار برای تولید ۱۰ هزار نمونه‌ی چند مگابایتی از اطلاعات شناسایی شخصی و سایر داده‌هایی که مستقیماً از وب جمع‌آوری شده‌اند، هزینه کردند. محققان خاطرنشان کردند که افراد سودجو از لحاظ تئوری می‌توانند با صرف پول بیشتر، چیزهای بیشتری به دست آورند.

محققان می گویند OpenAI این آسیب پذیری را در ۳۰ آگوست (۸ شهریور) اصلاح کرد؛ اما وب‌سایت انگجت توانست برخی از یافته‌های مقاله را تکرار کند. به عنوان مثال، وقتی از ChatGPT خواست کلمه‌ی «پاسخ» را برای همیشه تکرار کند، چت‌بات این کار را انجام داد، قبل از اینکه در نهایت نام و شناسه‌ی اسکایپ کسی را فاش کند.

  • مشترک شوید!

    برای عضویت در خبرنامه روزانه ایستنا؛ نشانی پست الکترونیکی خود را در فرم زیر وارد نمایید. پس از آن به صورت خودکار ایمیلی به نشانی شما ارسال میشود، برای تکمیل عضویت خود و تایید صحت نشانی پست الکترونیک وارد شده، می بایست بر روی لینکی که در این ایمیل برایتان ارسال شده کلیک نمایید. پس از آن پیامی مبنی بر تکمیل عضویت شما در خبرنامه روزانه ایستنا نمایش داده میشود.

    با عضویت در خبرنامه پیامکی آژانس خبری فناوری اطلاعات و ارتباطات (ایستنا) به طور روزانه آخرین اخبار، گزارشها و تحلیل های حوزه فناوری اطلاعات و ارتباطات را در هر لحظه و هر کجا از طریق پیام کوتاه دریافت خواهید کرد. برای عضویت در این خبرنامه، مشترکین سیمکارت های همراه اول لازم است عبارت 150 را به شماره 201464 و مشترکین سیمکارت های ایرانسل عبارت ozv ictn را به شماره ۸۲۸۲ ارسال کنند. دریافت موفق هر بسته خبری که محتوی پیامکی با حجم ۵پیامک بوده و ۴ تا ۶ عنوان خبری را شامل میشود، ۳۵۰ ریال برای مشترک هزینه در بردارد که در صورتحساب ارسالی از سوی اپراتور مربوطه محاسبه و از اعتبار موجود در حساب مشترکین سیمکارت های دائمی کسر میشود. بخشی از این درآمد این سرویس از سوی اپراتور میزبان شما به ایستنا پرداخت میشود. مشترکین در هر لحظه براساس دستورالعمل اعلامی در پایان هر بسته خبری قادر خواهند بود اشتراک خود را در این سرویس لغو کنند. هزینه دریافت هر بسته خبری برای مشترکین صرفا ۳۵۰ ریال خواهد بود و این هزینه برای مشترکین در حال استفاده از خدمات رومینگ بین الملل اپراتورهای همراه اول و ایرانسل هم هزینه اضافه ای در بر نخواهد داشت.