چتهای شما خوراک آموزش هوش مصنوعی میشوند
آیا حاضرید دادههای شخصی خود را در اختیار هوش مصنوعی قرار دهید؟ تصمیم جدید آنتروپیک کاربران Claude را مقابل این پرسش قرار داده است.شرکت آنتروپیک اعلام کرد که شرایط خدمات و سیاست حفظ حریم خصوصی خود را تغییر میدهد و قصد دارد برای آموزش چتبات هوش مصنوعی Claude از دادههای کاربران استفاده کند.
کاربران جدید آنتروپیک هنگام ثبتنام امکان انصراف خواهند داشت و کاربران فعلی اعلان پاپآپ دریافت میکنند که به آنها اجازه میدهد استفاده از دادههایشان برای آموزش هوش مصنوعی را غیرفعال کنند. این اعلان با عنوان Updates to Consumer Terms and Policies نمایش داده میشود و اگر گزینهی You can help improve Claude غیرفعال شود، چتها برای آموزش ذخیره نمیشوند. کاربرانی که سیاست جدید را بپذیرند، تمامی گفتوگوهای جدید یا ادامهیافته آنها برای آموزش مدل استفاده خواهد شد. مهلت انتخاب یا لغو این گزینه تا تاریخ ۲۸ سپتامبر ۲۰۲۵ (۶ مهر ۱۴۰۴) است.
کاربران در صورت تمایل میتوانند از طریق بخش Settings > Privacy و غیرفعال کردن گزینهی Help improve Claude، اشتراک دادههایشان را متوقف کنند.
آنتروپیک میگوید سیاست جدید به توسعهی مدلهای هوش مصنوعی توانمندتر و کاربردیتر کمک میکند و ایمنی در برابر سؤاستفادههایی مانند کلاهبرداری و سوءاستفادههای مخرب را افزایش میدهد. این تغییرات شامل تمام کاربران پلنهای رایگان، پرو و مکس خواهد شد اما سرویسهای تجاری مانند Claude for Work یا Claude for Education را در بر نمیگیرد.
یکی از تغییرات مهم دیگر Claude، افزایش مدت زمان نگهداری دادهها است. اگر کاربری اجازهی استفاده از دادههایش را برای آموزش بدهد، آنتروپیک آنها را به مدت ۵ سال ذخیره میکند. البته گفتوگوهایی که حذف شوند، وارد چرخهی آموزش مدل نخواهند شد. برای کاربرانی که اشتراک داده را نمیپذیرند، همچنان دورهی نگهداری ۳۰ روزه اعمال میشود.
آنتروپیک تأکید میکند که ترکیبی از ابزارها و فرایندهای خودکار برای فیلترکردن دادههای حساس بهکار گرفته میشود و هیچ اطلاعاتی به سایر شرکتها و سازمانها منتقل نخواهد شد.