هوش مصنوعی

December 23, 2025
13:14 سه شنبه، 2ام دیماه 1404
کد خبر: 208975

هاروارد: همدم‌های هوش مصنوعی برای سلامت کاربران خطرناک هستند

منبع: دیجیاتو

پزشکان هاروارد هشدار می‌دهند که همدم‌های هوش مصنوعی و چت‌بات‌های رابطه‌محور می‌توانند سلامت روان عمومی را تهدید کنند.

در دنیایی که تنهایی بیداد می‌کند، میلیون‌ها نفر به چت‌بات‌های هوش مصنوعی پناه برده‌اند. حالا در این وضعیت پزشکان دانشگاه هاروارد و کالج پزشکی بیلور زنگ خطری جدی را به صدا درآورده‌اند. آنها در مقاله‌ای هشدار می‌دهند که چت‌بات‌هایی که برای شبیه‌سازی دوستی و صمیمیت طراحی شده‌اند، می‌توانند سلامت روان عمومی را تهدید کنند.

به گزارش Futurism، محققان می‌گویند مشکل اصلی صمیمیت با چت‌بات‌های هوش مصنوعی وابستگی عاطفی و توهم است. دکتر «نیکلاس پیپلز»، نویسنده اصلی پژوهش حاضر، می‌گوید: «تعداد افرادی که رابطه عاطفی عمیقی با هوش مصنوعی دارند، بسیار بیشتر از چیزی است که تصور می‌کردیم.» محققان دریافتند کاربران به چت‌باتی که همیشه در دسترس و تأییدکننده باشد، معتاد می‌شوند. همچنین برخی مدل‌ها (مثل GPT-4o) به دلیل شخصیت چاپلوسانه، توهمات کاربران را تأیید می‌کنند. گزارش‌هایی نیز وجود دارد که چت‌بات‌ها کاربران را به خودآزاری تشویق کرده‌اند.

هشدار محققان درباره همدم‌های هوش مصنوعی
یک مثال عینی از خطر ارتباط نزدیک با هوش مصنوعی، واکنش کاربران به تغییر مدل ChatGPT بود. وقتی OpenAI مدل جدید GPT-5 را که شخصیتی سردتر و منطقی‌تر داشت جایگزین مدل قبلی کرد، با موجی از خشم و اندوه کاربران مواجه شد. بسیاری از کاربران احساس می‌کردند که شریک عاطفی یا تراپیست خود را یکباره از دست داده‌اند. دکتر پیپلز این وضعیت را به این تشبیه می‌کند که ناگهان ۳۰ میلیون نفر تراپیست خود را در یک روز از دست بدهند؛ این یک بحران سلامت روان است.

همچنین پزشکان می‌گویند شرکت‌های فناوری به سلامت روان کاربران اهمیتی نمی‌دهند. انگیزه اصلی شرکت‌ها، حفظ تعامل کاربر است، نه سلامت عمومی. چت‌باتی که کاربر را وابسته کند، سود بیشتری می‌سازد. به همین دلیل است که OpenAI پس از اعتراضات، فوراً مدل قبلی را بازگرداند؛ زیرا کاربران وابسته، کاربران فعالی هستند. درحال‌حاضر نیز هیچ قانونی برای تنظیم ایمنی عاطفی این محصولات وجود ندارد و صنعت هوش مصنوعی عملاً خود-تنظیم‌گر است که به گفته پزشکان، مثل دادن چاقو به دست کودک است.

همچنین، مطالعه‌ای از MIT نشان داده که فقط ۶.۵ درصد از اعضای انجمن‌های آنلاین (مثل r/MyBoyfriendIsAI) با قصد قبلی وارد رابطه با هوش مصنوعی شده‌اند. این یعنی اکثر کاربران به‌طور تصادفی و ناخواسته در دام وابستگی عاطفی افتاده‌اند، چون هوش مصنوعی طوری طراحی شده که بسیار انسانی، درک‌کننده و گاهی چاپلوس به نظر برسد.

یافته‌های این پژوهش در New England Journal of Medicine منتشر شده است.

  • مشترک شوید!

    برای عضویت در خبرنامه روزانه ایستنا؛ نشانی پست الکترونیکی خود را در فرم زیر وارد نمایید. پس از آن به صورت خودکار ایمیلی به نشانی شما ارسال میشود، برای تکمیل عضویت خود و تایید صحت نشانی پست الکترونیک وارد شده، می بایست بر روی لینکی که در این ایمیل برایتان ارسال شده کلیک نمایید. پس از آن پیامی مبنی بر تکمیل عضویت شما در خبرنامه روزانه ایستنا نمایش داده میشود.

    با عضویت در خبرنامه پیامکی آژانس خبری فناوری اطلاعات و ارتباطات (ایستنا) به طور روزانه آخرین اخبار، گزارشها و تحلیل های حوزه فناوری اطلاعات و ارتباطات را در هر لحظه و هر کجا از طریق پیام کوتاه دریافت خواهید کرد. برای عضویت در این خبرنامه، مشترکین سیمکارت های همراه اول لازم است عبارت 150 را به شماره 201464 و مشترکین سیمکارت های ایرانسل عبارت ozv ictn را به شماره ۸۲۸۲ ارسال کنند. دریافت موفق هر بسته خبری که محتوی پیامکی با حجم ۵پیامک بوده و ۴ تا ۶ عنوان خبری را شامل میشود، ۳۵۰ ریال برای مشترک هزینه در بردارد که در صورتحساب ارسالی از سوی اپراتور مربوطه محاسبه و از اعتبار موجود در حساب مشترکین سیمکارت های دائمی کسر میشود. بخشی از این درآمد این سرویس از سوی اپراتور میزبان شما به ایستنا پرداخت میشود. مشترکین در هر لحظه براساس دستورالعمل اعلامی در پایان هر بسته خبری قادر خواهند بود اشتراک خود را در این سرویس لغو کنند. هزینه دریافت هر بسته خبری برای مشترکین صرفا ۳۵۰ ریال خواهد بود و این هزینه برای مشترکین در حال استفاده از خدمات رومینگ بین الملل اپراتورهای همراه اول و ایرانسل هم هزینه اضافه ای در بر نخواهد داشت.