هوش مصنوعی جدید اوپنایآی قدرت استدلال ریاضی و علمی دارد
مدلهای هوش مصنوعی مختلف از جمله قلب تپنده ChatGPT از اوپنایآی و جمنای از گوگل مدتها است با وجود عملکرد خوبی که در بیشتر مواقع دارند با مسائل ساده ریاضیاتی به مشکل میخورند و کدهای تولیدی آنها در بیشتر موارد با مشکلاتی همراه است. همچنین پدیده هذیان گویی یا توهم هوش مصنوعی هم مشکل ساز است. سازنده ChatGPT میگوید با یک مدل جدید این مشکل را تا حدی بهبود بخشیده است.
به گزارش پیوست، مدل جدید اوپنایآی o1 نام دارد و به گفته این شرکت میتواند در وظایفی که به ریاضی، کدنویسی و علوم مربوط میشوند «استدلال» کند.
به گفته جیکوب پاچوکی، پژوهشگر ارشد اوپنایآی :«در مدلهای قبلی مثل ChatGPT، شما یک سوال میپرسیدید و فورا پاسخ میگرفتید. این مدل میتواند وقت بگذارد. میتواند درمورد مساله فکر کند (به انگلیسی) و سعی کند برای ارائه بهترین پاسخ،سوال را تجزیه کرده و به دنبال زوایا باشد.»
وبسایت اوپنایآی میگوید: «ما این مدلها را به گونهای آموزش دادهایم تا پیش از پاسخ دادن مثل یک انسان زمان بیشتری را به فکر کردن درمورد مسائل اختصاص دهند. آنها در فرایند آموزش یاد میگیرند تا فرایند تفکر خود را اصلاح کنند، استراتژیهای مختلف را امتحان کرده و اشتباههای خود را بشناسند.»
طبق اعلام اوپنایآی یکی از کاربردهای احتمالی این مدل را برای پژوهشگران حوزه درمان عنوان میکند تا دادههای پیوستگی سلولی را شرح دهند و فیزیکدانها از آن برای تولید «فرمولهای پیچیده ریاضی مورد نیاز برای نورشناسی کوانتوم تولید کنند.»
هدف نهایی ساخت سیستمهایی است که میتوانند یک مساله را با دقت و منطقی و با زنجیرهای از گامهای مشخص حل کنند که هرکدام از این گامها بر پایه دیگری پیریزی شده و شبیه به نحوه استدلال انسانها است. این فناوریها به ویژه برای برنامهنویسانی کاربرد دارد که از این سیستمهای هوش مصنوعی برای کدنویسی استفاده میکنند.
اوپنایآی به دنبال اعتمادسازی و رفع هذیانگویی
اوپنایآی درست با عرضه ChatGPT نشان داد که چتباتهای این شرکت میتوانند حجم زیادی از دادههای متنی را تجزیه تحلیل کنند و پاسخهای جذاب و به نظر مستحکمی را براساس دادههای موجود در اینترنت یا همان دادههای آموزشی خود ارائه کنند.
با اینکه مدلهای اولیه به اینترنت دسترسی نداشتند اما از آنجایی که براساس دادهای عمومی قدیمیتر آموزش دیده بودند میتوانستند به بسیاری از سوالات پاسخ دهند و به ویژه قابلیت تولید متنهای انسانمانند این ابزارها باعث جلب توجه شد.
با این حال پس از چندی و با جدیتر شدن استفاده از هوش مصنوعی، کاربران مشکلاتی مثل ارائه اطلاعات کاملا ساختگی را برای این ابزارها گزارش کردند. هوش مصنوعی در برخی از موارد پاسخ سوال را از هیچ ساخته و ارائه میکند و حتی منابع و مراجعی را نیز به صورت ساختگی در اختیار فرد میگذارد.
همچنین از آنجایی که اینترنت مملو از اطلاعات نادرست است، این ابزارها در برخی از موارد همان دادههای نادرست را تکرار میکنند که باعث شده استفاده از آنها در فعالیتهای حساس به مشکل بخورد زیرا پژوهشگران نمیتوانند از دادههایی که این چتبات در اختیار آنها میگذارد اطمینانی داشته باشند.
GPT-o1 میخواهد قابل اعتمادتر و دقیقتر باشد
حال اوپنایآی برای رفع همین مساله در مدل جدید خود تلاش کرده است و به گفته سزیمون سیدور، از پژوهشگران فنی اوپنایآی، که در توسعه مدل جدید نقش داشته است: «این مدل قرار نیست بینقص باشد. اما میتوانید اعتماد کنید که سختتر کار میکند و به احتمال بیشتری پاسخ صحیح ارائه میکند.»
مشترکان معمولی و کسبوکارهایی که اشتراک چتجیپیتی پلاس و چتجیپیتی تیمز را در اختیار دارند میتوانند از همین حالا به این فناوری دسترسی پیداکنند. اوپنایآی میگوید همچنین در حال فروش این فناوری به توسعهدهندگان نرمافزار و کسبوکارها است تا اپلیکیشنهای هوش مصنوعی خود را بر مبنای آن بسازند.
اوپنایآی میگوید این فناوری جدید در یک سری از آزمونهای استاندارد عملکرد بهتری نسبت به فناوریهای پیشین این شرکت دارد. در آزمون المپیاد بینالمللی ریاضیات یا I.M.O که یک رقابت ریاضی برای دبیرستانی است، فناوری پیشین ۱۳ درصد از نمره را کسب میکرد اما طبق اعلام اوپنایآی، مدل جدید توانسته به نمره ۸۳ درصدی دست پیدا کند.
البته که آزمونهای استاندارد همیشه روش خوبی برای قضاوت عملکرد فناوری در جهان واقعی نیستند و با وجود تبهر یک سیستم در آزمونهای ریاضی، ممکن است در واقعیت با این حوزه به مشکل بخورد.
انجلا فن، از پژوهشگران شرکت متا، میگوید: «بین حل مساله و کمک تفاوت وجود دارد. مدلهای جدیدی که اتدلال میکنند میتوانند مسائل را حل کنند. اما این بسیار متفاوت از کمک کردن به شخصی در تکالیف است.»
پرامپتنویسی مدل جدید متفاوت است
استفاده GPT-o1 با دیگر مدلهای اوپنایآی از جمله GPT-4 و 4o تا حد کمی تفاوت دارد. از آنجایی که این سیستم توانایی استدلال بیشتری دارد، برخی از روشهای مهندسی پرامپت معمولی به خوبی در این مدل جواب نمیدهند. مدلها پیشین نیاز به راهنمایی بیشتری دارشند و مردم از پنجرههای مضمون طولانی برای ارائه دستورالعمل استفاده میکنند اما به گفته اوپنایآی، این مدل جدید بهترین عملکرد را با «پرامپتهای مستقیم» و بدون حاشیه دارد و ترفندهایی مثل راهنمایی مدل و شات پرامپت «ممکن است عملکرد را تقویت نکند و گاهی اوقات جلودار آن باشد.»
طبق اعلام شرکت بهتر است که هنگام ارائه پرامپت به این هوش مصنوعی سعی کنید ساده و مستقیم باشید و راهنمایی چندانی به مدل ارائه نکنید زیرا درک خوبی از دستورالعملها دارد.
همچنین از آنجایی که این سیستم خود به استدلال میپردازد، بهتر است از ارائه زنجیره پرامپتهای فکری اجتناب کنید.