هوش مصنوعی

December 2, 2024
15:52 دوشنبه، 12ام آذرماه 1403
کد خبر: 178865

چطور یک جامعه هوش مصنوعی در ماینکرافت به جامعه انسانی شبیه شد؟

منبع: پیوست

آزمایش جدیدی از استارت‌آپ هوش مصنوعی Altera در بازی ماینکرافت نمای جالبی از نحوه عملکرد هوش مصنوعی و شباهت بسیار زیاد آن به انسان‌ها را به نمایش می‌گذارد. این شرکت در چندین آزمایش که با حداکثر ۱۰۰۰ عاملیت هوش مصنوعی انجام گرفت، نشان داد که چطور عاملیت‌های هوش مصنوعی به لطف مدل‌های بزرگ زبانی می‌توانند روابط اجتماعی تشکیل داده و شغل و حرفه خاص خود را در پیش بگیرند. هرکدام از عاملیت‌های هوش مصنوعی به تدریج مشخصه‌های خاص رفتاری به خود گرفتند و در این آزمایش حتی تاثیر مقررات اجتماعی و نحوه ترویج تفکرات مذهبی را نیز مشاهده می‌کنیم.

رابرت یانگ، بنیان‌گذار Altera در گزارشی از نشریه فناوری MIT می‌گوید این نمونه اولیه تنها آغاز راه است و گام کوچکی به سمت «تمدن‌های هوش مصنوعی» است که می‌توانند در کنار ما در فضاهای دیجیتالی به فعالیت بپردازند. این استارت‌آپ در نهایت به دنبال ساخت عاملیت‌های مجازی و شخصیت‌های هوش مصنوعی فراتر از بازی‌ها است، آنهم شخصیت‌هایی که عاشق انسان هستند و در حل مشکلات به ما کمک می‌کنند.

البته که بسیاری از متخصصان تحقق چنین هدفی را دور از واقعیت می‌دانند و از نگاه آنها عاملیت‌های هوش مصنوعی در بهترین حالت می‌توانند یک احساس مثل عشق را به شکل متقاعد کننده‌ای تقلید کنند.

یانگ معتقد است که «قدرت واقعی هوش مصنوعی زمانی شکوفا می‌شود که عاملیت‌های خودمختار هوش مصنوعی در ابعاد وسیع امکان تعامل پیدا کنند.»

تمدن مصنوعی: از روابط پیچیده اجتماعی تا مذهب و سیاست
این استارت‌آپ هوش مصنوعی در آزمایش جدیدی به نام پروژه سید (Project Sid) از عاملیت‌های شبیه‌سازی شده هوش مصنوعی با مغز‌هایی متشکل از چندین ماژول مختلف استفاده کرده است. برخی از این ماژول‌ها را مدل‌های بزرگ زبانی پشتیبانی می‌کنند که در زمینه‌های خاصی مثل ارتباط با دیگر عاملیت‌ها، صحبت یا برنامه‌ریزی حرکت بعدی تخصص دارند.

کار این گروه با نمونه کوچکی متشکل از ۵۰ عاملیت در ماینکرافت آغاز شد و این تیم روابط عاملیت‌ها را در این جهان زیر نظر گرفت. پس از گذشت ۱۲ روز داخل بازی (۴ ساعت در جهان واقعی)، عاملیت‌ها رفتار‌های جالبی را به نمایش گذاشتند. برای ماثل برخی از آنها بسیار اجتماعی شدند و روابط زیادی با دیگر عاملیت ها ساختند و دسته دیگری درون‌گرا بودند. امتیاز «محبوبیت» هر عاملیت (که توسط خود عاملیت‌های سنجیده می‌شد) در طول زمان و براساس روابط اجتماعی تغییر می‌کرد. این عاملیت‌ها توانستند نشانه‌های اجتماعی را زیر نظر گرفته و به آنها واکنش نشان دهند: برای مثال در یکی از موارد آشپزی که وظیفه توزیع غذا را داشت، به کسانی که از نظرش ارزش بیشتری داشتند بیشتر غذا می‌داد.

در یک سری از شبیه‌سازی‌ها با حضور ۳۰ عاملیت نیز رفتار‌های انسان‌گونه بیشتری گزارش شد. با وجود اینکه تمام عاملیت‌ها با یک شخصیت یکسان و هدف نهایی مشابه آغاز به کار می‌کردند (هدف تمام عاملیت ها ساخت یک روستای کارآمد و محافظت از جامعه در برابر حمالیت دیگر شخصیت‌های داخل بازی بود)، اما هرکدام از عاملیت‌ها به تدریج و بدون دریافت پرامپت نقش خاصی در داخل جامعه گرفتند. عاملیت‌ها به تدریج به نقش‌های مختلفی مثل ساختمان ساز، نیروی دفاعی، بازرگان و اکتشاف‌گر تقسیم شدند. هر عاملیت به تدریج با تخصصی‌تر شدن،‌ رفتارهایی مشابه نقش خاص خود را نیز به نمایش می‌گذاشت. برای مثال یک هنرمند زمان بیشتری را صرف چیدن گل می‌کرد، کشاورز دانه‌های بیشتری جمع‌آوری می‌کرد و محافظان هم حصار‌های بیشتری می‌کشیدند.

یانگ می‌گوید: «برایمان عجیب بود که اگر مغز درستی را برایشان در نظر بگیرید، آنها می‌توانند رفتار نوظهوری را به نمایش بگذارند. این چیزی است که از انسان‌ها انتظار داریم اما انتظار نداشتیم در ماشین‌ها مشاهده کنیم.»

این تیم پیروی از مقررات اجتماعی را نیز مورد بررسی قرار داد. آنها مقررات ساده مالیاتی معرفی کردند و به عاملیت‌ها اجازه دادند تا برای تغییر سیستم مالیاتی درون بازی رای دهند. عاملیت‌هایی که پرامپت حمایت یا ضدیت با مالیات را دریافت کرده بودند می‌توانستند بر رفتار دیگر عاملیت‌های اطراف خود تاثیر بگذارند، تا حدی که پس از آن با توجه به نحوه تعامل خود درمورد افزایش یا کاهش مالیات رای می‌دادند.

این تیم سپس تعداد عاملیت‌ها را بیشتر کرد و در برخی از موارد تعداد آنها به حداکثر ظرفیت سرور ماینکرافت یعنی ۱۰۰۰ نفر رسید. در یکی از شبیه‌سازی‌های ۵۰۰ عاملیتی Altera، این تیم مشاهده کرد که چطور عاملیت‌ها میم فرهنگی ساخته و منتشر می‌کنند. این تیم همچنین بذر یک مذهب ساختگی را در گروه کوچکی از عاملیت‌ها کاشت و سپس این گروه به ترویج و تبلیغ مذهب ساختگی Pastafarianism در شهر‌ها و نواحی مختلف پرداختند. کشیش‌های Pastafarian توانستند از طریق تعامل با دیگر عاملیت‌ها آنها را به مذهب خود وارد کنند. سپس آنهایی که به این مذهب روی آورده بودند نیز به تبلیغ آن پرداختند.

با اینکه رفتار این عاملیت‌ها شبیه به زندگی واقعی است اما این رفتار ترکیب از آموخته‌های مدل بزرگ زبانی از داده‌های انسانی است که به الگو‌هایی در عمل تبدیل می‌شود و آنها می‌توانند از ابزار استفاده کرده و با دیگر عاملیت‌ها ارتباط بگیرند. اندرو اهن،‌ هم‌بنیان‌گذار Altera، می گوید: «نکته این است که LLMها مدلی به اندهز کافی پیچیده از رفتار‌های اجتماعی انسان دارند که بتوانند رفتار‌های انسانی را شبیه‌سازی کنند.»

به عبارت دیگر، داده‌های این مدل‌ها باعث می‌شود تا به خوبی بتوانند رفتار انسانی را تقلید کنند اما به هیچ عنوان نمی‌توان آنها را «زنده» قلمداد کرد.

آیا هوش مصنوعی می‌تواند عاشق انسان‌ها باشد؟
یانگ طرح بزرگتری را در برنامه خود دارد. این شرکت در تلاش است تا در مرحله بعدی وارد بازی Roblox شود و یانگ امیدوار است که در نهایت از بازی‌ها فراتر برود. هدف او ساخت جهانی است که انسان‌ها نه تنها با شخصیت‌های هوش مصنوعی همراه شوند بلکه بتوانند در زندگی روزمره خود با آنها ارتباط بگیرند. رویای او ساخت تعداد زیادی «انسان دیجیتالی» است که به ما اهمیت می‌دهند و به جای سرگرمی، در حل مسائل با ما همراه می‌شوند. او می‌گوید: «ما به دنبال ساخت عاملیت‌هایی هستیم که واقعا عاشق انسان‌ها باشند (برای مثل شبیه به عشق سگ‌ها به انسان‌ها)»

البته که این دیدگاه در حوزه هوش مصنوعی بسیار بحث برانگیز است و بسیاری از متخصصان معتقدند نمی‌توان احساسات انسانی را با ترفند‌های امروز در ماشین‌ها شبیه سازی کرد. جولی توگلیوس، از کهنه‌کاران هوش مصنوعی، که رهبری شرکت آزمایش بازی Modl.ai را برعهده دارد، می‌گوید به فعالیت Altera علاقه‌مند است زیرا به ما اجازه می‌دهد تا رفتار انسانی را در شبیه‌سازی مطالعه کنیم.

اما آیا این عاملیت‌های شبیه‌سازی شده می‌توانند به ما امهیت دهند یا خودآگاه شوند؟ پاسخ توگلیوس منفی است. او می‌گوید: «هیچ دلیل وجود ندارد که فکر کنیم یک شبکه عصبی که روی یک پردازنده گرافیکی اجرا می شود چیزی را تجربه می‌کند.»

اما شاید برای مفید بودن هوش مصنوعی، اصلا لزومی برای عشق به انسان وجود نداشته باشد.

توگلیوس افزود: «اگر سوال این است که آیا این شبیه‌سازی‌ها می‌توانند آن طور به نظر برسند که به ماهیت می‌دهند و به حدی دقیق این کار را انجام دهند که به اندازه فردی که به ما اهمیت می‌دهد ارزشمند باشند، شاید این غیرممکن نباشد. شما می‌توانید شبیه سازی خوبی از اهمیت دادن را به شکل مفید خلق کنید. سوال اینجاست که آیا فردی که به او اهمیت داده می‌شود برایش مهم است که منبع آن واقعیت هیچ چیزی را تجربه نمی‌کند؟»

به عبارت دیگر، شاید همین برای ما کافی باشد که شخصیت‌های هوش مصنوعی بتوانند به خوبی اهمیت دادن به ما را شبیه‌سازی کنند.

  • مشترک شوید!

    برای عضویت در خبرنامه روزانه ایستنا؛ نشانی پست الکترونیکی خود را در فرم زیر وارد نمایید. پس از آن به صورت خودکار ایمیلی به نشانی شما ارسال میشود، برای تکمیل عضویت خود و تایید صحت نشانی پست الکترونیک وارد شده، می بایست بر روی لینکی که در این ایمیل برایتان ارسال شده کلیک نمایید. پس از آن پیامی مبنی بر تکمیل عضویت شما در خبرنامه روزانه ایستنا نمایش داده میشود.

    با عضویت در خبرنامه پیامکی آژانس خبری فناوری اطلاعات و ارتباطات (ایستنا) به طور روزانه آخرین اخبار، گزارشها و تحلیل های حوزه فناوری اطلاعات و ارتباطات را در هر لحظه و هر کجا از طریق پیام کوتاه دریافت خواهید کرد. برای عضویت در این خبرنامه، مشترکین سیمکارت های همراه اول لازم است عبارت 150 را به شماره 201464 و مشترکین سیمکارت های ایرانسل عبارت ozv ictn را به شماره ۸۲۸۲ ارسال کنند. دریافت موفق هر بسته خبری که محتوی پیامکی با حجم ۵پیامک بوده و ۴ تا ۶ عنوان خبری را شامل میشود، ۳۵۰ ریال برای مشترک هزینه در بردارد که در صورتحساب ارسالی از سوی اپراتور مربوطه محاسبه و از اعتبار موجود در حساب مشترکین سیمکارت های دائمی کسر میشود. بخشی از این درآمد این سرویس از سوی اپراتور میزبان شما به ایستنا پرداخت میشود. مشترکین در هر لحظه براساس دستورالعمل اعلامی در پایان هر بسته خبری قادر خواهند بود اشتراک خود را در این سرویس لغو کنند. هزینه دریافت هر بسته خبری برای مشترکین صرفا ۳۵۰ ریال خواهد بود و این هزینه برای مشترکین در حال استفاده از خدمات رومینگ بین الملل اپراتورهای همراه اول و ایرانسل هم هزینه اضافه ای در بر نخواهد داشت.