مطالعهای جدید نشان میدهد که دانشمندان همیشه نمیتوانند بین چکیدههای علمی تولیدشده با هوش مصنوعی و چکیدههای واقعی تفاوت قائل شوند.
بهنقل از نسخهی پیشانتشار مقالهای که اواخر ماه دسامبر در وبسایت بیوآرکایو منتشر شد، چتبات هوش مصنوعی ChatGPT میتواند چنان چکیدههای علمی جعلی و قانعکنندهای بنویسد که دانشمندان اغلب نمیتوانند آنها را شناسایی کنند. پژوهشگران دربارهی پیامدهای این اتفاق برای علم اختلافنظر دارند.
بهگزارش نیچر، ساندرا واچر از دانشگاه آکسفورد بریتانیا که درزمینهی فناوری و تنظیمگری مطالعه میکند و در پژوهش مشارکت نکرده است، با ابراز نگرانی دربارهی توانایی ChatGPT میگوید اگر اکنون در وضعیتی باشیم که متخصصان نتوانند تشخیص دهند چه چیز واقعی است یا نه، واسطهگری آنها که برای راهنمایی ما در موضوعات پیچیده بهشدت موردنیاز است، بیاثر خواهد شد.
چتبات ChatGPT در پاسخ به درخواستهای کاربران، متنی واقعبینانه و هوشمندانه خلق میکند. این چتبات مدل زبانی بزرگ و سامانهای مبتنیبر شبکههای عصبی است که با دریافت مقادیر عظیمی از متون تولیدشدهی انسانی، یاد میگیرد وظیفهاش را انجام دهد. شرکت نرمافزاری OpenAI در سانفرانسیسکو کالیفرنیا، این ابزار را ۳۰ نوامبر منتشر کرد و استفاده از آن رایگان است.
از زمان انتشار ChatGPT، پژوهشگران با مسائل اخلاقی دربارهی استفاده از آن دستبهگریبان بودهاند؛ زیرا تشخیص تفاوت بسیاری از متون خروجی آن با متن نوشتهشده بهدست انسان دشوار است. اکنون گروهی از پژوهشگران بهسرپرستی کاترین گائو از دانشگاه نورثوسترن در شیکاگو با استفاده از این چتبات، چکیدههای مقالههای پژوهشی مصنوعی تولید کردهاند تا دریابند آیا دانشمندان میتوانند غیرواقعیبودن آنها را تشخیص دهند یا نه.
پژوهشگران از چتبات خواستند تا ۵۰ چکیدهی پژوهشی پزشکی را براساس منتخبی از مقالههای منتشرشده در نشریات علمی معتبر ازجمله جاما، ژورنال پزشکی نیو انگلند، بیامجی، لنست و نیچر مدیسن بنویسد. آنها سپس با استفاده از شناساگر سرقت علمی و شناساگر خروجی هوش مصنوعی، متون تولیدشده را با چکیدههای واقعی مقایسه کردند و از گروهی از پژوهشگران پزشکی خواستند تا چکیدههای مصنوعی را تشخیص دهند.
نتیجه شگفتانگیز بود. جستوجوگر سرقت علمی با بررسی متون تولیدشده با ChatGPT حتی یک مورد سرقت علمی را شناسایی نکرد و میانگین امتیاز اصالت ۱۰۰ درصد را به آنها داد. درمقابل، شناساگر خروجی هوش مصنوعی توانست ۶۶ درصد از چکیدههای تولیدشده را شناسایی کند. بااینحال، داوران انسانی عملکرد چندان بهتری نداشتند. آنها ۶۸ درصد از چکیدههای تولیدشده و ۸۶ درصد از چکیدههای واقعی را بهدرستی شناسایی کردند. بهعبارتدیگر، دانشمندان بهاشتباه ۳۲ درصد از چکیدههای تولیدشده را واقعی و ۱۴ درصد از چکیدههای واقعی را جعلی تشخیص دادند.
گائو و همکارانش در نسخهی پیشانتشار مطالعهی خود میگویند: «ChatGPT چکیدههای علمی باورپذیری مینویسد. مرزهای استفادهی اخلاقی و پذیرفتنی از مدلهای زبانی بزرگ برای کمک به نوشتن متون علمی هنوز مشخص نیست.»
واچر میگوید اگر دانشمندان نتوانند صحت پژوهشهای علمی را تعیین کنند، احتمالاً «عواقب وحشتناکی» درانتظارمان خواهد بود. بهگفتهی او، متون تولیدشده علاوهبر مشکلسازبودن برای پژوهشگران، پیامدهایی برای کل جامعه نیز خواهند داشت؛ زیرا پژوهشهای علمی نقش بزرگی در جوامع ما ایفا میکنند. بهعنوان مثال، تصمیمهای سیاسی ممکن است برپایهی پژوهشی نادرست اتخاذ شوند.
آرویند نارایانان، دانشمند کامپیوتر در دانشگاه پرینستون در نیوجرسی میگوید: «بعید است هیچ دانشمند مهمی از ChatGPT برای تولید چکیده استفاده کند.» او میافزاید اینکه میتوان چکیدههای تولیدشده را شناسایی کرد یا نه، پرسشی «بیاهمیت» است. پرسش اصلی این است که آیا این ابزار میتواند چکیدهای صحیح و قانعکننده ایجاد کند یا خیر؟ چتبات نمیتواند چنین کاری کند و درنتیجه، مزیت استفاده از آن بسیار جزئی است.
ایرن سلیمان در شرکت هوش مصنوعی هاگینگ فیس دربارهی تأثیرات اجتماعی هوش مصنوعی پژوهش میکند. او نگران هرگونه اتکا به مدلهای زبانی بزرگ برای تفکر علمی است. او میگوید این مدلها براساس اطلاعات گذشته آموزش داده میشوند؛ درحالیکه پیشرفت اجتماعی و علمی اغلب ازطریق تفکرات نو حاصل میشود که با افکار گذشته تفاوت دارند.»
نویسندگان پیشنهاد میکنند افرادی که مقالههای پژوهشی و کنفرانسی را ارزیابی میکنند، باید سیاستهایی را برای جلوگیری از بهکارگیری متون تولیدشده با هوش مصنوعی وضع کنند. اگر مؤسسهها قرار باشد به استفاده از این فناوری در مواقع خاص مجاز باشند، باید قوانین شفافی دربارهی آشکارسازی متون تولیدشده وضع کنند.
اوایل ماه جاری، چهلمین کنفرانس بینالمللی یادگیری ماشین اعلام کرد که مقالههای نوشتهشده با ChatGPT و سایر ابزارهای زبانی هوش مصنوعی ممنوع است. این کنفرانس یکی از همایشهای بزرگ دربارهی هوش مصنوعی محسوب میشود که قرار است ماه ژوئیه در هاوایی برگزار شود
سلیمان میافزاید در زمینههایی که اطلاعات جعلی میتواند ایمنی افراد را بهخطر بیندازد (مانند مسائل پزشکی)، مجلات ممکن است رویکردی دقیقتر برای تأیید صحت اطلاعات اتخاذ کنند. نارایانان میگوید راهحلهای این مسائل نباید روی خود چتبات متمرکز شود؛ بلکه انگیزههای نادرستی که به این رفتار منجر میشوند، مانند رویههای استخدامی و ارتقای رتبه در دانشگاهها بهواسطهی شمارش مقالات بدون توجه به کیفیت و تأثیر آنها، باید در کانون توجه باشند.»