هوش مصنوعی

August 11, 2024
14:36 یکشنبه، 21ام مردادماه 1403
کد خبر: 171532

هشدار OpenAI درمورد وابستگی احساسی کاربران به حالت صوتی هوش مصنوعی

منبع: Peivast

اوپن‌ای‌آی به تازگی گزارشی از یک تجزیه تحلیل امنیتی منتشر کرده است که در آن به احتمال وابستگی احساسی کاربران به حالت صوتی انسان‌مانند این شرکت اشاره می‌کند. براساس گزارشی که مجله وایرد از این بررسی منتشر کرده است، وابستگی احساسی می‌تواند باعث پذیرش بیشتر انسان‌ها در مقابل هوش مصنوعی شود که احتمال باور اطلاعات ساختگی یا توهم که از مشکلات این فناوری است را افزایش می‌دهد. شرکت همچنین احتمال تاثیر این حالت صوتی در القای دیدگاه‌های خاص به کاربران را نیز تحت بررسی دارد.

این هشدار‌ها در یک «سیستم کارت» برای GPT-4o منتشر شده‌اند، مستندی که خطرات مدل از نگاه شرکت را مشخص کرده و روند آزمون ایمنی و اقداماتی که برای پیشگیری از خطرات اتخاذ شده را تشریح می‌کند.

اوپن‌ای‌آی در ماه‌های اخیر و در پی استعفای چند کارمند قدیمی که در حوزه خطرات بلندمدت هوش مصنوعی فعالیت داشتند با انتقاداتی روبرو است. همین مساله باعث شده تا برخی این شرکت را به بی‌احتیاطی در مسیر بهره‌برداری مالی از هوش مصنوعی متهم کنند. انتشار جزئیات روند ایمنی در اوپن‌ای‌آی می‌تواند به انتقادات پاسخ داده و اطمینان خاطری برای عموم باشد.

در سیستم کارت جدید خطرات متعددی مورد بررسی قرار گرفته‌اند که موضوعاتی همچون احتمال تشدید سوگیری‌های اجتماعی با GPT-4o، انتشار اطلاعات وارون و کمک به توسعه سلاح‌های شیمیایی یا بیولوژیکی را شامل می‌شود. این گزارش همچنین مشخص می‌کند که شرکت با چه روندی از اجرای درست محدودیت‌ها و جلوگیری از زیر پا گذاشتن آنها، ممانعت از فریب مردم یا طرح برنامه‌های فاجعه‌بار اطمینان حاصل می‌کند.

برخی از متخصصان با وجود تحصین این شفافیت‌، به ظرفیت بیشتر در این حوزه اشاره می‌کنند.

لوسی آیمی کافی، پژوهشگر سیاست‌های اجرایی در Hugging Face، شرکت میزبانی کننده ابزارهای هوش مصنوعی، می‌گوید سیستم کارت اوپن‌ای‌آی برای GPT-4o جزئیات دقیق از داده‌های آموزشی یا مالکیت این داده‌ها را مشخص نکرده است. او می‌گوید: «باید به مساله کسب اجازه در ساخت چنین دیتاست بزرگی با چندین حالت از جمله متن، عکس و صوت، پرداخته شود.»

برخی دیگر نیز به احتمال تغییر خطرات هنگام استفاده آزاد اشاره می‌کنند. نیل تامپسون، استاد MIT که ارزیابی‌های خطر هوش مصنوعی را مطالعه می‌کند، می‌گوید: «بازبینی داخلی آنها باید اولین گام از تضمین امنیت هوش مصنوعی باشد. بسیاری از خطرات تنها زمانی نمایان می‌شوند که هوش مصنوعی در جهان واقعی استفاده شود. با پیدایش مدل‌های جدید، باید این خطرات را دسته‌بندی و ارزیابی کرد.»

سیستم کارت جدید نشانگر تکامل سریع خطرات هوش مصنوعی در کنار توسعه قابلیت‌های جدیدی مثل رابط صوتی اوپن‌ای‌آی است. در ماه مه و زمانی که اوپن‌ای‌آی از حالت صوتی با صدایی شبیه به انسان و تعامل طبیعی رونمایی کرد، بسیاری از کاربران متوجه لحن بیش از حد عشوه‌گر در این دمو شدند. کمی بعد از این مراسم، اسکارلت جوهانسون، از شرکت به اتهام کپی‌برداری از سبک صحبت او شکایت کرد.

بخشی از این سیستم کارت با عنوان «انسان‌انگاری و وابستگی احساسی» به مشکلاتی که در نتیجه نگاه انسان‌گونه کاربران به هوش مصنوعی پدید می‌آید اشاره می‌کند، مساله‌ای که با حالت صوتی انسان‌مانند تشدید می‌شود. برای مثال پژوهشگران اوپن‌ای‌آی در هنگام آزمون فشار GPT-4o حالت‌هایی را در صحبت کاربران مشاهده کردند که نشانگر نوعی ارتباط احساسی با مدل است. برای مثال، افراد از جملاتی اینچنین استفاده کردند «این آخرین روزی است که با هم هستیم.»

اوپن‌ای‌آی می‌گوید انسان انگاری ممکن است باعث اعتماد بیشتر کاربران به خروجی مدل حتی در صورت «توهم» شود. به مرور زمان این موضوع بر رابطه کاربر با دیگران تاثیر می‌گذارد. براساس این مستند: «کاربران ممکن است با هوش مصنوعی روابط اجتماعی ایجاد کنند و نیاز به تعامل با انسان را کاهش دهند که می‌تواند برای افراد تنها مفید باشد اما اید بر روابط سالم تاثیر بگذارد.»

جاکین کوئینونرو کاندلا، رئیس بخش آمادگی در اوپن‌ای‌آی، می‌گوید حالت صوتی می‌تواند به یک رابط کاربری منحصر‌به‌فرد تبدیل شود. او همچنین اشاره می‌کند که تاثیرات احساسی مشاهده شده در GPT-4o می‌تواند مثبت باشد و برای مثال کسانی که احساس تنهایی می‌کنند یا نیاز به تمرین روابط اجتماعی دارند را تسکین دهد. او افزود که شرکت مساله انسان انگاری و روابط احساسی را با دقت مطالعه می‌کند و برای مثال رابطه آزمایش‌کنندگان بتا با ChatGPT را زیر نظر می‌گیرد. او می‌گوید: «ما در حال حاضر نتیجه‌ای برای ارائه نداریم اما این موضوع در لیست نگرانی‌های ما است.»

دیگر مشکلات حالت صوتی نیز احتمال روش‌های تازه «جیل‌بریک» یا از بین بردن محدودیت‌های امنیتی است. این کار با ارائه صوتی انجام می‌گیرد که باعث می‌شود مدل محدودیت‌های خود را کنار بگذارد. حالت جیل‌بریک ده صوتی را می‌توان برای تقلید صدای یک فرد خاص یا تشخیص احساسات کاربر استفاده کرد. احتمال عملکرد اشتباه حالت صوتی در مواجهه با صداهای اضافی نیز وجود دارد و در یکی از موارد آزمایش‌کنندگان دریافتند که هوش مصنوعی به تدریج از صدایی شبیه به صدای کاربر استفاده می‌کند. اوپن‌ای‌آی می‌گوید بازدهی حالت صوتی در ترغیب مردم به اتخاذ یک دیدگاه خاص را نیز تحت بررسی دارد.

  • مشترک شوید!

    برای عضویت در خبرنامه روزانه ایستنا؛ نشانی پست الکترونیکی خود را در فرم زیر وارد نمایید. پس از آن به صورت خودکار ایمیلی به نشانی شما ارسال میشود، برای تکمیل عضویت خود و تایید صحت نشانی پست الکترونیک وارد شده، می بایست بر روی لینکی که در این ایمیل برایتان ارسال شده کلیک نمایید. پس از آن پیامی مبنی بر تکمیل عضویت شما در خبرنامه روزانه ایستنا نمایش داده میشود.

    با عضویت در خبرنامه پیامکی آژانس خبری فناوری اطلاعات و ارتباطات (ایستنا) به طور روزانه آخرین اخبار، گزارشها و تحلیل های حوزه فناوری اطلاعات و ارتباطات را در هر لحظه و هر کجا از طریق پیام کوتاه دریافت خواهید کرد. برای عضویت در این خبرنامه، مشترکین سیمکارت های همراه اول لازم است عبارت 150 را به شماره 201464 و مشترکین سیمکارت های ایرانسل عبارت ozv ictn را به شماره ۸۲۸۲ ارسال کنند. دریافت موفق هر بسته خبری که محتوی پیامکی با حجم ۵پیامک بوده و ۴ تا ۶ عنوان خبری را شامل میشود، ۳۵۰ ریال برای مشترک هزینه در بردارد که در صورتحساب ارسالی از سوی اپراتور مربوطه محاسبه و از اعتبار موجود در حساب مشترکین سیمکارت های دائمی کسر میشود. بخشی از این درآمد این سرویس از سوی اپراتور میزبان شما به ایستنا پرداخت میشود. مشترکین در هر لحظه براساس دستورالعمل اعلامی در پایان هر بسته خبری قادر خواهند بود اشتراک خود را در این سرویس لغو کنند. هزینه دریافت هر بسته خبری برای مشترکین صرفا ۳۵۰ ریال خواهد بود و این هزینه برای مشترکین در حال استفاده از خدمات رومینگ بین الملل اپراتورهای همراه اول و ایرانسل هم هزینه اضافه ای در بر نخواهد داشت.