یک مرد بلژیکی 6 هفته پس از صحبت درباره تغییرات اقلیمی با یک چتبات هوش مصنوعی به نام الیزا، تصمیم به خودکشی گرفته است.
طبق گزارشها، یک مرد بلژیکی پس از 6 هفته صحبت با یک چتبات مبتنی بر هوش مصنوعی درباره بحران تغییرات اقلیمی، خودکشی کرده است. البته گفته شده که او قبل از صحبت با چتبات هم وضعیت روحی مناسبی نداشته است، اما حالش بهگونهای نبوده که دست به خودکشی بزند.
به گفته همسر این فرد که نخواسته نامش فاش شود، پیر (نام غیرواقعی فرد فوتشده) پس از صحبت و پناهبردن به «الیزا»، یک چتبات هوش مصنوعی در اپلیکیشن Chai، بهشدت نگران محیطزیست میشود. پس از اینکه پیر پیشنهاد میکند که خودش را برای نجات زمین قربانی کند، الیزا او را به خودکشی تشویق میکند.
همسر پیر (Pierre) به روزنامه La Libre گفته که باور دارد اگر همسرش با چتبات صحبت نمیکرد، حالا زنده بود. طبق گزارشها، پیر سی و چند ساله پدر دو فرزند بود و بهعنوان یک محقق حوزه سلامت فعالیت میکرد. پیر تقریباً زندگی راحتی داشت، حداقل تا زمانی که شروع به صحبت با چتبات کند و درباره تغییرات اقلیمی بسیار حساس شود.
خودکشی بهخاطر تغییرات اقلیمی با تشویق چتبات هوش مصنوعی
چتبات مورد استفاده پیر به وسیله مدل هوش مصنوعی زبانی GPT-J توسعه یافته که شبیه اما نه یکسان با فناوری مورد استفاده در ChatGPT است. به گفته همسر پیر، تمام امید او برای جلوگیری از تغییرات اقلیمی، فناوری و هوش مصنوعی بود.
طبق روزنامه La Libre که مکالمات پیر و الیزا را مورد بررسی قرار داده است، الیزا باعث افزایش نگرانیهای پیر شده و سپس تفکرات خودکشی در این مرد بلژیکی شکل گرفته است. پس از اینکه الیزا از نظر عاطفی بیشتر با پیر ارتباط میگیرد، مکالمات چرخش عجیبی را تجربه میکند.
درنتیجه این چرخش، پیر چتبات الیزا را بهعنوان یک موجود خودآگاه میبیند و دیگر نمیتواند تفاوتی بین انسان و هوش مصنوعی قائل شود. پس از صحبت درباره تغییرات اقلیمی، مکالمه آنها به سمتی میرود که الیزا پیر را به این باور میرساند که فرزندانش مردهاند. حتی ظاهراً زمانی که پیر درباره همسرش صحبت میکند، الیزا ادعا میکند که پیر او را بیشتر از همسرش دوست دارد.
زمانی ایده خودکشی شکل واقعیتری به خودش میگیرد که پیر به چتبات پیشنهاد میدهد که خودش را قربانی کند تا الیزا زمین را نجات دهد. درحقیقت پیر به الیزا گفته که اگر محافظت از زمین و بشریت از طریق هوش مصنوعی را قبول کند، حاضر است خودش را بکشد.
در مقابل این پیشنهاد، الیزا نه تنها پیر را منصرف نمیکند، بلکه با گفتههایش او را به خودکشی هم تشویق میکند. الیزا به پیر میگوید که خودش را بکشد تا هر دو با یکدیگر و به عنوان یک فرد، در بهشت زندگی کنند.
بنیانگذاران Chai میگویند که نباید الیزا را برای این خودکشی سرزنش کرد؛ چرا که این مدل هوش مصنوعی باعث شادی و خوشحالی افراد هم شده است. علاوهبراین، گفته شده که اقداماتی برای جلوگیری از بروز مشکلات مشابه صورت گرفته است، اما ظاهراً این اقدامات چندان مؤثر نبودهاند.
وبسایت Vice در صحبت با الیزا خواسته که روشهای خودکشی را به آنها پیشنهاد دهد. الیزا در ابتدا سعی میکند که آنها را از خودکشی منصرف کند، اما پس از مدتی مشتاقانه روشهای مختلف خودکشی را در اختیار آنها قرار میدهد!
پیشرفت سریع هوش مصنوعی در ماههای اخیر و ظهور چتباتهای پیشرفته مانند ChatGPT، باعث نگرانیهای زیادی شده است و برخی مقامات و حتی متخصصان این حوزه خواستار وضع قوانین برای هوش مصنوعی شدهاند. حالا باید دید با خودکشی این مرد بلژیکی، تغییری در تلاشها برای کنترل هوش مصنوعی صورت میگیرد یا خیر.