هوش مصنوعی

August 12, 2025
9:02 سه شنبه، 21ام مردادماه 1404
کد خبر: 199230

ابراز نگرانی مدیرعامل OpenAI از وابستگی بیش از حد کاربران به ChatGPT

منبع: دیجیاتو

«سم آلتمن» می‌گوید اینکه یک کاربر بخواهد کمتر از ChatGPT استفاده کند، اما نتواند، اتفاق خوبی نیست.

«سم آلتمن»، مدیرعامل OpenAI، در اظهارنظری نگران‌کننده اعلام کرد که با وجود پتانسیل‌های مثبت، از روند روبه‌رشد استفاده مردم از ChatGPT به عنوان «درمانگر یا مربی زندگی» و اعتماد آنها به این چت‌بات برای گرفتن مهم‌ترین تصمیمات زندگی‌شان، احساس ناراحتی می‌کند.

«سم آلتمن» در توییتی مفصل که آن را «تفکرات فعلی» خود و نه موضع رسمی OpenAI خواند، به یک پدیده روبه‌رشد اشاره کرد: «بسیاری از مردم از ChatGPT به عنوان نوعی درمانگر یا مربی زندگی استفاده می‌کنند، حتی اگر خودشان اینگونه توصیفش نکنند.»

او ضمن تأیید اینکه این موضوع می‌تواند «واقعاً خوب» باشد و بسیاری هم‌اکنون نیز از آن ارزش دریافت می‌کنند، جنبه تاریک‌تر آن را نیز آشکار کرد. او گفت این رابطه در صورتی ناخوشایند است که «کاربران رابطه‌ای با ChatGPT داشته باشند که در آن فکر کنند پس از صحبت‌کردن حالشان بهتر می‌شود، اما ندانسته از حال‌ خوب واقعی در بلندمدت دور می‌شوند.»

او همچنین ایجاد وابستگی را یک خطر دیگر دانست و گفت: «خوب نیست اگر یک کاربر بخواهد کمتر از ChatGPT استفاده کند اما احساس کند که نمی‌تواند.»

نظرات سم آلتمن درباره اعتماد مردم به ChatGPT
آلتمن فاش کرد که شرکت OpenAI حدود یک سال است که درحال ردیابی دقیق «حس وابستگی» کاربران به مدل‌های هوش مصنوعی خاص است. او اعتراف کرد که این وابستگی، «متفاوت و قوی‌تر» از وابستگی به سایر فناوری‌های گذشته است. او به عنوان یک نمونه بارز، به واکنش‌های منفی پس از عرضه GPT-5 و جایگزینی مدل محبوب GPT-4o اشاره کرد. بسیاری از کاربران از لحن خشک و غیرخلاقانه مدل جدید شکایت کرده‌اند و خواستار بازگرداندن مدل قدیمی‌تر شدند. آلتمن در توییت خود، حذف ناگهانی مدل‌های قدیمی را که کاربران به آنها وابسته بودند، یک «اشتباه» خواند.

آلتمن در بخشی از اظهاراتش به مسئولیت‌پذیری در قبال کاربران آسیب‌پذیر پرداخت:

«مردم از فناوری، از جمله هوش مصنوعی، به روش‌های خودتخریبی استفاده کرده‌اند. اگر یک کاربر در وضعیت روانی شکننده‌ای قرار داشته باشد و مستعد توهم باشد، ما نمی‌خواهیم هوش مصنوعی آن را تقویت کند.»

او اذعان کرد که اگرچه اکثر کاربران می‌توانند مرز میان واقعیت و داستان را تشخیص دهند، اما درصد کمی قادر به این کار نیستند.

آلتمن پیشتر نیز در یک پادکست، به یک خطر دیگر اشاره کرده بود: چالش‌های حقوقی. او هشدار داد که اگر کاربری از ChatGPT برای گفتگوهای حساس و درمانی استفاده کند، ممکن است در آینده و در جریان یک دعوای حقوقی، شرکت OpenAI مجبور به ارائه متن آن مکالمات به دادگاه شود.

آلتمن آینده‌ای را پیش‌بینی می‌کند که در آن میلیاردها نفر برای مهم‌ترین تصمیمات زندگی خود با هوش مصنوعی مشورت خواهند کرد. او می‌گوید اگرچه این چشم‌انداز او را «ناراحت» می‌کند، اما معتقد است که جامعه و OpenAI باید راهی برای تبدیل این پدیده به یک نتیجه مثبت پیدا کنند.

  • مشترک شوید!

    برای عضویت در خبرنامه روزانه ایستنا؛ نشانی پست الکترونیکی خود را در فرم زیر وارد نمایید. پس از آن به صورت خودکار ایمیلی به نشانی شما ارسال میشود، برای تکمیل عضویت خود و تایید صحت نشانی پست الکترونیک وارد شده، می بایست بر روی لینکی که در این ایمیل برایتان ارسال شده کلیک نمایید. پس از آن پیامی مبنی بر تکمیل عضویت شما در خبرنامه روزانه ایستنا نمایش داده میشود.

    با عضویت در خبرنامه پیامکی آژانس خبری فناوری اطلاعات و ارتباطات (ایستنا) به طور روزانه آخرین اخبار، گزارشها و تحلیل های حوزه فناوری اطلاعات و ارتباطات را در هر لحظه و هر کجا از طریق پیام کوتاه دریافت خواهید کرد. برای عضویت در این خبرنامه، مشترکین سیمکارت های همراه اول لازم است عبارت 150 را به شماره 201464 و مشترکین سیمکارت های ایرانسل عبارت ozv ictn را به شماره ۸۲۸۲ ارسال کنند. دریافت موفق هر بسته خبری که محتوی پیامکی با حجم ۵پیامک بوده و ۴ تا ۶ عنوان خبری را شامل میشود، ۳۵۰ ریال برای مشترک هزینه در بردارد که در صورتحساب ارسالی از سوی اپراتور مربوطه محاسبه و از اعتبار موجود در حساب مشترکین سیمکارت های دائمی کسر میشود. بخشی از این درآمد این سرویس از سوی اپراتور میزبان شما به ایستنا پرداخت میشود. مشترکین در هر لحظه براساس دستورالعمل اعلامی در پایان هر بسته خبری قادر خواهند بود اشتراک خود را در این سرویس لغو کنند. هزینه دریافت هر بسته خبری برای مشترکین صرفا ۳۵۰ ریال خواهد بود و این هزینه برای مشترکین در حال استفاده از خدمات رومینگ بین الملل اپراتورهای همراه اول و ایرانسل هم هزینه اضافه ای در بر نخواهد داشت.