چرا برخی کاربران با هوش مصنوعی ارتباط عاطفی شدید برقرار میکنند؟
هنگامی که شرکت OpenAI آخرین نسل از فناوری هوش مصنوعی خود موسوم به GPT-4o را با قابلیت صحبت کردن با صدای خود آزمایش کرد، متوجه شد برخی کاربران جهانی با هوش مصنوعی رابطه عاطفی برقرار میکنند و در برخی موارد به نظر میرسد کاربران از پایان یافتن این رابطه با هوش مصنوعی ناراحت میشوند.
شرکت OpenAI در حقیقت به این نتیجه رسید که در جریان توسعه هوش مصنوعی این خطر وجود دارد که کاربران آنچه را که «اتکای عاطفی» نامیده میشود و در نسخه جدید هوش مصنوعی این شرکت مورد استفاده قرار گرفته است، ایجاد کنند و با گذشت زمان از نظر عاطفی به فناوری هوش مصنوعی وابسته شوند.
کمپانی OpenAI در بیانیه جدید خود گفت: «توانایی تکمیل وظایف برای کاربر و همچنین ذخیره کردن و به ناطر سپردن جزییات کلیدی و استفاده از آنها در مکالمه نه تنها تجربه قانع کنندهای را برای کاربران ایجاد میکند، بلکه پتانسیل وابستگی و در برخی موارد اتصال بیش از اندازه بین انسان و فناوری را هم به وجود میآورد».
این اتفاق در حالت کلی شبیه به اعتیاد تشبیه میشود و به نظر ناخوشایند میآید. «میرا موراتی» مدیر ارشد فناوری OpenAI به طور صریح توضیح داد که در طراحی روباتهای چت هوشمند مجهز به حالت صوتی که در اصل میتوانند به صورت صوتی با کاربر حرف بزنند، «این احتمال وجود دارد که ما آنها را به روش اشتباه طراحی کرد هباشیم و در نتیجه استفاده از این روباتهای هوشمند برای کاربر بسیار اعتیادآور باشد و درنهایت وابستگی عاطفی شدید با آنها ایجاد کنیم».
شرکت مذکور علاوه بر این میگوید که توانایی هوش مصنوعی برای برقراری یک مکالمه طبیعی با کاربر ممکن است خطر «انسان سازی» یا به عبارت دیگر نسبت دادن ویژگیهای انسان به یک شیئ غیرانسانی را افزایش دهد و این فرآیند میتواند افراد را به سمت ایجاد یک رابطه اجتماعی با هوش مصنوعی سوق دهد. این مسئله به نوبه خود میتواند منجر به «کاهش نیاز آنها به تعامل انسانی» شود.