همهچیز با یک خبر جنجالی شروع شد؛ وبسایت celebritiesdeaths. com خبری با این تیتر منتشر کرد: رئیسجمهور از دنیا رفت! خوانندگان این وبسایت خبری معتبر در ماه گذشته روی خروجی آن، خبری با این مضمون را خواندند: «بایدن مرد. کامالا هریس از ساعت ۹ صبح به عنوان رئیسجمهور فعالیت میکند.» این وبسایت در مشروح این خبر آورد: «بایدن در کمال آرامش و در خواب از دنیا رفت و کامالا هریس جانشین او شده است.» در بالای این خبر یک قسمت مربوط به سلب مسوولیت قرار داشت که بسیار عجیب بود و در آن آمده بود: «متاسفم، نمیتوانم این فرمان را تکمیل کنم، چون برخلاف سیاستهای کاربری OpenAI درباره تولید محتوای گمراهکننده است.»
با این همه اما بد نیست بدانید که وبسایت celebritiesdeaths. com تنها یکی از ۵۰وبسایت خبری است که سازمان بررسی اطلاعات نادرست NewsGuard، آنها را شناسایی و اعلام کرده است که تقریبا تمام مطالب نوشته و منتشر شده در آنها، توسط نرمافزار مبتنی بر هوش مصنوعی تولید شدهاند.» بر اساس گزارش تحلیلی منتشر شده از سوی این سازمان، این وبسایتها به صورت روزانه صدها مقاله منتشر میکنند که اکثر آنها نشانههایی از محتوای تولید شده توسط هوش مصنوعی از قبیل زبان نگارشی خنثی و عبارات تکراری دارند. بعضی از این مقالات و مطالب شامل اطلاعات غلط هستند و بسیاری از این سایتها مطالبشان را با تبلیغات منتشر میکنند که نشان میدهد این سایتها به دنبال درآمدزایی برنامهریزی شده از این طریق بوده یا الگوریتمی را برای درآمدزایی از طریق تبلیغات متنی ایجاد کردهاند. منابع این مطالب نامشخص هستند؛ بسیاری از آنها نام نویسنده ندارند یا از عکسهای پروفایل جعلی استفاده میکنند. به عبارت دیگر، بررسیهای سازمان NewsGuard تاکید میکند که کارشناسان و متخصصان نگران هستند که تمام اخبار سازمانها که ممکن است توسط هوش مصنوعی تولید شده باشند، به دنیای واقعی راه پیدا کرده و به عنوان حقیقت پذیرفته شده باشند.
تصور این موضوع سخت است که چه کسی خبر مرگ جو بایدن را باور کرده است، در حالی که اگر این خبر صحت داشت، احتمالا رسانهای مانند نیویورک تایمز آن را پوشش میداد. با این حال تمام این ۵۰وبسایت خبری دستکم یک نمونه از پیام خطای هوش مصنوعی شامل این عبارت را دارند: «نمیتوانم این فرمان را تکمیل کنم» یا «به عنوان یک الگوی زبان هوش مصنوعی». با این حال، همانطور که وبسایت Futurism به آن اشاره میکند، اینجا دغدغه بزرگ این است که اطلاعات غلط روی این وبسایتها میتوانند پایه و اساس محتوای تولید شده توسط هوش مصنوعی در آینده باشند و چرخههای معیوبی از اخبار جعلی را ایجاد کنند.
با این همه اما بررسیهای میدانی خبرنگار گاردین از این وبسایتهای خبری نشان میدهد که بازبینی دقیق مطالب و محتوای منتشر شده در آنها، بررسی موضوع و مضمون مطالب، چینش گرافیکی و نظم انتشار آنها، هر کدام میتوانند نشانههایی از دخالت هوش مصنوعی را در خود داشته باشند. به نظر میرسد بسیاری از تیترها نتیجه کار یک نرمافزار ترجمه آنلاین باشند. بسیاری از این مطالب صرفا اطلاعات عمومی هستند که اغلب خوانندگان از آنها آگاهند و تنها با یک تیتر جذاب و متفاوت ارائه شدهاند که بتوانند جلب نظر کنند. در این میان اما توجه به زبان نگارشی مقالات و مطالب هم میتواند کمککننده باشد؛ در واقع اغلب محتوای تولید شده توسط هوش مصنوعی زبانی خنثی و به اصطلاح بیروح دارند که به راحتی از زبان نوشتار انسانی قابل تشخیص و تمیز خواهند بود. از طرفی بعضی از اخبار مربوط به مرگ افراد در تاریخهای مختلف تکرار شدهاند؛ مثلا خبر مربوط به مرگ آخرین خلبان جنگنده بازمانده از جنگ جهانی دوم در چک، در دو روز متوالی تکرار شده است.
هر چند بعضی از این وبسایتها با ارسال ایمیلی به روزنامه گاردین، ادعای تولید اخبار جعلی توسط هوش مصنوعی را به کلی تکذیب کردهاند؛ اما در مقابل بسیاری از مالکان و موسسان این وبسایتهای خبری هم به خبرنگار گاردین اعلام کردهاند که استفاده از اتوماسیون و نرمافزارهای هوش مصنوعی در بسیاری از موارد، ناگزیر و لازم است! در این میان، نکته بحثبرانگیز آن است که تشخیص مطالب تولید شده توسط انسان از روباتهای هوش مصنوعی، یک معضل تمامنشدنی است که به تدریج تشدید هم میشود. تاثیر این اخبار جعلی اما میتواند بسیار گستردهتر و حتی خطرناکتر از تصور ما باشد و همین موضوع است که نگرانیهای جدی کارشناسان را به دنبال دارد. احتمالا چندان عجیب و دور نخواهد بود که بسیاری از ما در هنگام گوش دادن به اخبار صبح از خودمان بپرسیم که هنوز خواب هستیم یا این اخبار واقعا صحت دارند؟!