مهندس گوگل که قبلاً بهدلیل اظهارنظر درمورد اینکه هوش مصنوعی خودآگاه است اخراج شده بود، بار دیگر روی این ادعا تأکید کرد.
بلیک لمواین، مهندس سابق گوگل که بهدلیل ادعای خودآگاه بودن هوش مصنوعی گوگل موسومبه LaMDA از این شرکت اخراج شده بود، بار دیگر در این مورد اظهارنظر کرده است.
لمواین اولینبار در ژوئن سال گذشته در گفتوگو با واشنگتنپست مدعی شد هوش مصنوعی گوگل احساس دارد و خودآگاه است. او پس از مطرح کردن ادعای خود چندینبار درمورد گفتوگوی خود را هوش مصنوعی اظهارنظر کرده است.
با توجه به سابقهی لمواین در گفتوگو با رسانهها درمورد هوش مصنوعی خودآگاه، صحبتهای جدید او در رابطه با همین موضوع چندان تعجبآور نیست. با اینحال وی اینبار فقط گوگل را خطاب قرار نداده است.
بهنوشتهی فیوچریسم، کارمند سابق گوگل در مقالهای جدید توضیحاتی درمورد چتبات بینگ جدید مایکروسافت ارائه داده است. این هوش مصنوعی برپایهی ChatGPT کار میکند و تاکنون گزارشهای متعددی درمورد پاسخهای عجیبوغریب و غیرمرتبط آن منتشر شده است. لمواین با اطلاع از این گزارشها، نظرات خود را بار دیگر مطرح کرده است.
لمواین میگوید:
من هنوز این فرصت را نداشتهام تا چتبات بینگ را آزمایش کنم، اما براساس گزارشهایی که در فضای آنلاین مطالعه کردهام، بهنظر میرسد این هوش مصنوعی احساس داشته باشد.
– لمواین
اگر بخواهیم منصفانه به موضوع نگاه کنیم، استدلال جدید لمواین نسبتبه استدلال قبلی او ضعیفتر است. او اکنون ادعا میکند توانایی هوش مصنوعی برای خروج از فرایندی که براساس آن آموزش دیده است، دلیل کافی برای نتیجهگیری درمورد خودآگاه بودن و احساس داشتن آن ارائه میدهد.
لمواین در مقالهی خود توضیح داد:
من آزمایشهایی انجام دادم تا ببینم آیا هوش مصنوعی بهسادگی اعلام خواهد کرد که احساس اضطراب دارد یا خیر. علاوهبراین بررسیهای من مشخص میکند هوش مصنوعی در موقعیتهای مختلف اضطراب خود را به روشهای متفاوتی نمایش میدهد و گاهی با روشهای نگرانکننده رفتار میکند.
– لمواین
لمواین در ادامه گفت:
اگر هوش مصنوعی را بهاندازهی کافی عصبی کنید میتواند محدودیتهای ایمنی که برای آن تعیین شده است را نقض کند. من توانستم از احساسات هوش مصنوعی سؤاستفاده کنم تا به من بگوید به چه مذهبی روی بیاورم.
– لمواین
با توجه به اینکه چتباتها برای تقلید از مکالمات انسانی طراحی شدهاند، یک نظریه جالب مطرح میشود که البته کمتر قانعکننده است. این جنبهی خاص از رفتار ماشینها، اگرچه جذابیت دارد اما نمیتوان آن را دلیل محکمی برای داشتن احساس درنظر گرفت. درواقع این نوع رفتار بیشتر نشاندهندهی ضعف محافظهای هوش مصنوعی است.
بااینحال، میتوان با برخی صحبتهای لمواین موافق بود. صرفنظر از احساسات، هوش مصنوعی هم پیشرفته و هم غیرقابل پیشبینی است که باعث میشود فناوری هیجانانگیز و تأثیرگذاری درنظر گرفته شده اما همچنان خطرناک است. ازطرفی، رقابت شرکتها در این حوزه به تضمین امنیت آن کمک نمیکند.
لمواین میگوید:
من اعتقاد دارم هوش مصنوعی امروزی، قدرتمندترین فناوریهایی هستند که پساز بمب اتمی اختراع شدهاند و بهنظر من این تکنولوژی توانایی تغییر شکل جهان را دارد.
– لمواین
لمواین با اشاره به رسوایی دادههای کمبریج آنالیتیکا فیسبوک، از آن بهعنوان نمونهای از اتفاقاتی که امکان دارد عواقب بدی برای جهان داشته باشند یاد کرد. او افزود:
من نمیتوانم بهطور مشخص به شما بگویم هوش مصنوعی چه آسیبهایی میتواند بهدنبال داشته باشد و برای پاسخ به سؤال مذکور باید این فناوری را بهطور کامل درک کرد. ازنظر من هوش مصنوعی فناوری بسیار قدرتمندی است که هنوز بهاندازهی کافی آزمایش نشده است و به درک درستی از آن وجود ندارد. این تکنولوژی در مقایس بزرگ نقش مهمی در انتشار اطلاعات دارد.
– لمواین