تحقیق جدید: هوشمصنوعی نمیتواند خطر جدی برای انسان ایجاد کند
تحقیقات جدید نشان میدهد یک ویژگی هوشمصنوعی جدید باعث میشود نتواند خطر جدی برای انسانها ایجاد کند.
به گزارش فارس به نقل از نوروساینسنیوز، تحقیقات جدید نشان میدهد که مدلهای زبانی بزرگ (LLM) مانند چتجیپیتی نمیتوانند به طور مستقل یاد بگیرند یا بدون دستورالعمل صریح مهارتهای جدیدی کسب کنند و این امر باعث میشود آنها قابل پیشبینی و کنترل باشند.
این مطالعه ترس از توسعه تواناییهای استدلال پیچیده در این مدلها را از بین میبرد و تأکید میکند که اگرچه مدلهای هوشمصنوعی میتوانند زبان پیچیدهای تولید کنند، اما بعید است تهدیدهای وجودی ایجاد کنند. با این حال، سوءاستفاده بالقوه از هوش مصنوعی، مانند تولید اخبار جعلی، همچنان نیاز به توجه دارد.
جزئیات بیشتر تحقیق
طبق تحقیقات جدید دانشگاه بث و دانشگاه فنی دارمشتاد در آلمان، چتجیپیتی و سایر مدلهای زبانی بزرگ (LLM) نمیتوانند به طور مستقل یاد بگیرند یا مهارتهای جدیدی کسب کنند، به این معنی که هیچ تهدید وجودی برای بشریت ایجاد نمیکنند،
این مطالعه نشان میدهد که این مدلهای هوشمصنوعی توانایی سطحی برای دنبال کردن دستورالعملها دارند و در تسلط بر زبان برتری دارند، با این حال، هیچ پتانسیلی برای تسلط بر مهارتهای جدید بدون دستورالعمل صریح ندارند. این بدان معناست که آنها ذاتاً قابل کنترل، قابل پیشبینی و ایمن باقی میمانند.
این بدان معناست که آنها ذاتاً قابل کنترل، قابل پیشبینی و ایمن باقی میمانند.
تیم تحقیقاتی نتیجه گرفت که مدلهای هوشمصنوعی بزرگ که در حال آموزش بر روی مجموعه دادههای بزرگتر هستند، میتوانند بدون نگرانی ایمنی مستقر شوند، اگرچه این فناوری هنوز میتواند سوء استفاده شود.
با رشد، این مدلها احتمالاً زبان پیچیدهتری تولید میکنند و در پیروی از دستورالعملهای واضح و دقیق بهتر میشوند، اما به احتمال زیاد مهارتهای استدلال پیچیده کسب نمیکنند.
دکتر هاریش تایار مادابوشی، دانشمند کامپیوتر در دانشگاه بث و یکی از نویسندگان مطالعه جدید در مورد «تواناییهای نوظهور» مدلهای هوشمصنوعی بزرگ ، گفت: «روایت غالب مبنی بر اینکه این نوع هوش مصنوعی تهدیدی برای بشریت است، از پذیرش و توسعه گسترده این فناوریها جلوگیری میکند و همچنین توجه را از مسائل واقعی که نیاز به تمرکز ما دارند منحرف میکند.»
تیم تحقیقاتی مشترک به رهبری پروفسور ایرینا گورویچ در دانشگاه فنی دارمشتاد در آلمان، آزمایشهایی را برای آزمایش توانایی مدلهای هوشمصنوعی بزرگ در انجام کارهایی که مدلها قبلاً هرگز با آنها مواجه نشدهاند – به اصطلاح تواناییهای نوظهور – انجام داد.
به عنوان مثال، مدلهای هوشمصنوعی بزرگ میتوانند بدون اینکه قبلاً به طور خاص آموزش داده یا برنامهریزی شده باشند، به سوالات مربوط به موقعیتهای اجتماعی پاسخ دهند. در حالی که تحقیقات قبلی نشان میداد که این محصول «دانستن» مدلها در مورد موقعیتهای اجتماعی است، محققان نشان دادند که در واقع نتیجه استفاده از توانایی شناخته شده مدلهای هوشمصنوعی بزرگ برای تکمیل وظایف بر اساس چند نمونه ارائه شده به آنها است که به عنوان «یادگیری در زمینه» (ICL) شناخته میشود.
این مطالعه به عنوان بخشی از مجموعه مقالات شصت و دومین نشست سالانه انجمن محاسبات زبانشناسی (ACL 2024) – کنفرانس برتر بینالمللی در پردازش زبان طبیعی – منتشر شده است.