روش جدیدی که به هوش مصنوعی امکان میدهد بهطور نامحدود یاد بگیرد
گروهی از محققان هوش مصنوعی و دانشمندان علوم رایانه در دانشگاه آلبرتا دریافتند که شبکههای مصنوعی کنونی که در کنار سیستمهای یادگیری عمیق مورد استفاده قرار میگیرند، در طول آموزشهای طولانی مدت روی دادههای جدید توانایی یادگیری خود را از دست میدهند.
این محققان طی مطالعهای که نتیجه آن در آخرین شماره از نشریه بین المللی Nature به چاپ رسیده است، روشی را برای غلبه بر این مشکل توضیح دادند تا با انعطاف پذیری در سیستمهای یادگیری هوش مصنوعی، این قابلیت را در آنها تقویت کنند و به آنها امکان دهند تا به فرآیند یادگیری در بازه زمانی طولانی همچنان ادامه دهند.
سیستمهای هوش مصنوعی طی چند ساله گذشته به جریان اصلی در سازمانهای جهانی تبدیل شدهاند. در این عرصه میتوان به مدلهای زبان بزرگ (LLM) اشاره کرد که پاسخهای به ظاهر هوشمندان را در روباتهای چت تولید میکنند. ولی یک نکتهای که انواع مختلف این فناوری فاقد آن هستند، توانایی ادامه یادگیری حین استفاده از آن است و این این اتفاق مانع از رشد دقیقتر آنها میشود. این فناوریها همچنین نمیتوانند با آموزش روی مجموعه دادههای جدید هوشمندتر شوند.
محققان توانایی شبکههای عصبی مرسوم را برای ادامه یادگیری پس از آموزش روی مجموعه دادههای اصلی خود آزمایش کردند و با فرآیندی موسوم به «فراموشی فاجعه بار» روبرو شدند که در آن یک سیستم پس از آموزش روی مواد جدید، توانایی انجام یک کار مشخصی که پیشتر قادر به انجام آن بود را ندارد.
آنها خاطرنشان کردند که این یک نتیجه منطقی است و با توجه به اینکه مدلهای زبان بزرگ به عنوان سیستمهای یادگیری متوالی طراحی شدهاند، با آموزش در مجموعه دادههای ثابت یاد میگیرند. در طول آزمایشهای صورت گرفته، تیم تحقیقاتی دریافت که اگر سیستمها به طور متوالی در چندین کار آموزش ببینند، توانایی خود را برای یادگیری به طور کلی از دست میدهند. این ویژگی آنها در قالب از دست دادن انعطاف پذیری مدل زبان بزرگ هم شناخته میشود.