چطور یک جامعه هوش مصنوعی در ماینکرافت به جامعه انسانی شبیه شد؟
آزمایش جدیدی از استارتآپ هوش مصنوعی Altera در بازی ماینکرافت نمای جالبی از نحوه عملکرد هوش مصنوعی و شباهت بسیار زیاد آن به انسانها را به نمایش میگذارد. این شرکت در چندین آزمایش که با حداکثر ۱۰۰۰ عاملیت هوش مصنوعی انجام گرفت، نشان داد که چطور عاملیتهای هوش مصنوعی به لطف مدلهای بزرگ زبانی میتوانند روابط اجتماعی تشکیل داده و شغل و حرفه خاص خود را در پیش بگیرند. هرکدام از عاملیتهای هوش مصنوعی به تدریج مشخصههای خاص رفتاری به خود گرفتند و در این آزمایش حتی تاثیر مقررات اجتماعی و نحوه ترویج تفکرات مذهبی را نیز مشاهده میکنیم.
رابرت یانگ، بنیانگذار Altera در گزارشی از نشریه فناوری MIT میگوید این نمونه اولیه تنها آغاز راه است و گام کوچکی به سمت «تمدنهای هوش مصنوعی» است که میتوانند در کنار ما در فضاهای دیجیتالی به فعالیت بپردازند. این استارتآپ در نهایت به دنبال ساخت عاملیتهای مجازی و شخصیتهای هوش مصنوعی فراتر از بازیها است، آنهم شخصیتهایی که عاشق انسان هستند و در حل مشکلات به ما کمک میکنند.
البته که بسیاری از متخصصان تحقق چنین هدفی را دور از واقعیت میدانند و از نگاه آنها عاملیتهای هوش مصنوعی در بهترین حالت میتوانند یک احساس مثل عشق را به شکل متقاعد کنندهای تقلید کنند.
یانگ معتقد است که «قدرت واقعی هوش مصنوعی زمانی شکوفا میشود که عاملیتهای خودمختار هوش مصنوعی در ابعاد وسیع امکان تعامل پیدا کنند.»
تمدن مصنوعی: از روابط پیچیده اجتماعی تا مذهب و سیاست
این استارتآپ هوش مصنوعی در آزمایش جدیدی به نام پروژه سید (Project Sid) از عاملیتهای شبیهسازی شده هوش مصنوعی با مغزهایی متشکل از چندین ماژول مختلف استفاده کرده است. برخی از این ماژولها را مدلهای بزرگ زبانی پشتیبانی میکنند که در زمینههای خاصی مثل ارتباط با دیگر عاملیتها، صحبت یا برنامهریزی حرکت بعدی تخصص دارند.
کار این گروه با نمونه کوچکی متشکل از ۵۰ عاملیت در ماینکرافت آغاز شد و این تیم روابط عاملیتها را در این جهان زیر نظر گرفت. پس از گذشت ۱۲ روز داخل بازی (۴ ساعت در جهان واقعی)، عاملیتها رفتارهای جالبی را به نمایش گذاشتند. برای ماثل برخی از آنها بسیار اجتماعی شدند و روابط زیادی با دیگر عاملیت ها ساختند و دسته دیگری درونگرا بودند. امتیاز «محبوبیت» هر عاملیت (که توسط خود عاملیتهای سنجیده میشد) در طول زمان و براساس روابط اجتماعی تغییر میکرد. این عاملیتها توانستند نشانههای اجتماعی را زیر نظر گرفته و به آنها واکنش نشان دهند: برای مثال در یکی از موارد آشپزی که وظیفه توزیع غذا را داشت، به کسانی که از نظرش ارزش بیشتری داشتند بیشتر غذا میداد.
در یک سری از شبیهسازیها با حضور ۳۰ عاملیت نیز رفتارهای انسانگونه بیشتری گزارش شد. با وجود اینکه تمام عاملیتها با یک شخصیت یکسان و هدف نهایی مشابه آغاز به کار میکردند (هدف تمام عاملیت ها ساخت یک روستای کارآمد و محافظت از جامعه در برابر حمالیت دیگر شخصیتهای داخل بازی بود)، اما هرکدام از عاملیتها به تدریج و بدون دریافت پرامپت نقش خاصی در داخل جامعه گرفتند. عاملیتها به تدریج به نقشهای مختلفی مثل ساختمان ساز، نیروی دفاعی، بازرگان و اکتشافگر تقسیم شدند. هر عاملیت به تدریج با تخصصیتر شدن، رفتارهایی مشابه نقش خاص خود را نیز به نمایش میگذاشت. برای مثال یک هنرمند زمان بیشتری را صرف چیدن گل میکرد، کشاورز دانههای بیشتری جمعآوری میکرد و محافظان هم حصارهای بیشتری میکشیدند.
یانگ میگوید: «برایمان عجیب بود که اگر مغز درستی را برایشان در نظر بگیرید، آنها میتوانند رفتار نوظهوری را به نمایش بگذارند. این چیزی است که از انسانها انتظار داریم اما انتظار نداشتیم در ماشینها مشاهده کنیم.»
این تیم پیروی از مقررات اجتماعی را نیز مورد بررسی قرار داد. آنها مقررات ساده مالیاتی معرفی کردند و به عاملیتها اجازه دادند تا برای تغییر سیستم مالیاتی درون بازی رای دهند. عاملیتهایی که پرامپت حمایت یا ضدیت با مالیات را دریافت کرده بودند میتوانستند بر رفتار دیگر عاملیتهای اطراف خود تاثیر بگذارند، تا حدی که پس از آن با توجه به نحوه تعامل خود درمورد افزایش یا کاهش مالیات رای میدادند.
این تیم سپس تعداد عاملیتها را بیشتر کرد و در برخی از موارد تعداد آنها به حداکثر ظرفیت سرور ماینکرافت یعنی ۱۰۰۰ نفر رسید. در یکی از شبیهسازیهای ۵۰۰ عاملیتی Altera، این تیم مشاهده کرد که چطور عاملیتها میم فرهنگی ساخته و منتشر میکنند. این تیم همچنین بذر یک مذهب ساختگی را در گروه کوچکی از عاملیتها کاشت و سپس این گروه به ترویج و تبلیغ مذهب ساختگی Pastafarianism در شهرها و نواحی مختلف پرداختند. کشیشهای Pastafarian توانستند از طریق تعامل با دیگر عاملیتها آنها را به مذهب خود وارد کنند. سپس آنهایی که به این مذهب روی آورده بودند نیز به تبلیغ آن پرداختند.
با اینکه رفتار این عاملیتها شبیه به زندگی واقعی است اما این رفتار ترکیب از آموختههای مدل بزرگ زبانی از دادههای انسانی است که به الگوهایی در عمل تبدیل میشود و آنها میتوانند از ابزار استفاده کرده و با دیگر عاملیتها ارتباط بگیرند. اندرو اهن، همبنیانگذار Altera، می گوید: «نکته این است که LLMها مدلی به اندهز کافی پیچیده از رفتارهای اجتماعی انسان دارند که بتوانند رفتارهای انسانی را شبیهسازی کنند.»
به عبارت دیگر، دادههای این مدلها باعث میشود تا به خوبی بتوانند رفتار انسانی را تقلید کنند اما به هیچ عنوان نمیتوان آنها را «زنده» قلمداد کرد.
آیا هوش مصنوعی میتواند عاشق انسانها باشد؟
یانگ طرح بزرگتری را در برنامه خود دارد. این شرکت در تلاش است تا در مرحله بعدی وارد بازی Roblox شود و یانگ امیدوار است که در نهایت از بازیها فراتر برود. هدف او ساخت جهانی است که انسانها نه تنها با شخصیتهای هوش مصنوعی همراه شوند بلکه بتوانند در زندگی روزمره خود با آنها ارتباط بگیرند. رویای او ساخت تعداد زیادی «انسان دیجیتالی» است که به ما اهمیت میدهند و به جای سرگرمی، در حل مسائل با ما همراه میشوند. او میگوید: «ما به دنبال ساخت عاملیتهایی هستیم که واقعا عاشق انسانها باشند (برای مثل شبیه به عشق سگها به انسانها)»
البته که این دیدگاه در حوزه هوش مصنوعی بسیار بحث برانگیز است و بسیاری از متخصصان معتقدند نمیتوان احساسات انسانی را با ترفندهای امروز در ماشینها شبیه سازی کرد. جولی توگلیوس، از کهنهکاران هوش مصنوعی، که رهبری شرکت آزمایش بازی Modl.ai را برعهده دارد، میگوید به فعالیت Altera علاقهمند است زیرا به ما اجازه میدهد تا رفتار انسانی را در شبیهسازی مطالعه کنیم.
اما آیا این عاملیتهای شبیهسازی شده میتوانند به ما امهیت دهند یا خودآگاه شوند؟ پاسخ توگلیوس منفی است. او میگوید: «هیچ دلیل وجود ندارد که فکر کنیم یک شبکه عصبی که روی یک پردازنده گرافیکی اجرا می شود چیزی را تجربه میکند.»
اما شاید برای مفید بودن هوش مصنوعی، اصلا لزومی برای عشق به انسان وجود نداشته باشد.
توگلیوس افزود: «اگر سوال این است که آیا این شبیهسازیها میتوانند آن طور به نظر برسند که به ماهیت میدهند و به حدی دقیق این کار را انجام دهند که به اندازه فردی که به ما اهمیت میدهد ارزشمند باشند، شاید این غیرممکن نباشد. شما میتوانید شبیه سازی خوبی از اهمیت دادن را به شکل مفید خلق کنید. سوال اینجاست که آیا فردی که به او اهمیت داده میشود برایش مهم است که منبع آن واقعیت هیچ چیزی را تجربه نمیکند؟»
به عبارت دیگر، شاید همین برای ما کافی باشد که شخصیتهای هوش مصنوعی بتوانند به خوبی اهمیت دادن به ما را شبیهسازی کنند.