برخی از فعالان حوزه فناوری میگویند اصلاً چنین نامهای را امضا نکردهاند و برخی محققان بهخاطر استناد به تحقیقاتشان، ابراز ناخشنودی کردهاند.
چند روز پیش نامهای سرگشاده برای توقف توسعه هوش مصنوعی منتشر شد که آن را افرادی مانند ایلان ماسک، مدیرعامل تسلا و توییتر و استیو وزنیاک، همبنیانگذار اپل، امضا کرده بودند. البته شمار افرادی که آن را امضا کرده بودند، از 1000 نفر عبور کرد. اما حالا شماری از افراد میگویند که اصلاً آن را امضا نکردهاند و برخی متخصصان هم استفاده از تحقیقات خود در چنین نامهای را محکوم کردهاند.
در این نامه که سروصدای زیادی بپا کرد، فعالان حوزه فناوری از آزمایشگاهها و شرکتهای فعال در حوزه هوش مصنوعی خواستهاند که توسعه سیستمهای قدرتمندتر از مدل هوش مصنوعی GPT-4 را متوقف کنند. تعدادی از مهندسان آمازون، دیپمایند، گوگل، متا و مایکروسافت هم این نامه را امضا کردهاند.
مدل GPT-4 که اخیراً از سوی شرکت OpenAI معرفی شده است، میتواند مکالماتی مشابه با انسان ایجاد کند و حتی قادر به تشخیص تصاویر است. البته این مدل کاربردهای مختلف دیگری هم دارد؛ مانند نوشتن آهنگ یا خلاصهکردن متون طولانی. طبق ادعای نامه فعالان دنیای فناوری، این سیستمهای هوش مصنوعی میتوانند خطری بزرگ برای بشریت باشند:
«متخصصان مستقل و آزمایشگاههای توسعهدهنده هوش مصنوعی باید از این مکث برای توسعه مشترک مجموعهای از پروتکلهای امنیتی برای توسعه و طراحی هوش مصنوعی استفاده کنند؛ پروتکلهایی که باید شدیداً توسط کارشناسان خارجی بررسی و نظارت شوند.»
انتقاد از انتشار نامه و امضاهای جعلی
این نامه به تلاش اندیشکده Future of Life institute یا FLI نوشته شده و در آن به 12 تحقیق مختلف از متخصصان شامل اساتید و مهندسان سابق OpenAI، گوگل و دیپمایند استناد شده است. اما حالا به گزارش گاردین، 4 متخصص که به تحقیق آنها در این نامه استناد شده، نسبت به ادعاهای مطرحشده، ابراز نگرانی کردهاند.
علاوه بر این موضوع، نامه منتشرشده فاقد پروتکلهای تأییدیه برای امضاها بوده و حالا مشخص شده است که برخی افراد اصلاً آن را امضا نکردهاند. از میان این افراد میتوان به «شی جینپینگ» و «یان لیکان»، دانشمند ارشد هوش مصنوعی متا اشاره کرد. لیکان در توییتر رسماً اعلام کرده است که این نامه را امضا نکرده و همچنین از آن حمایت نمیکند.
یان لیکان
منتقدان نامه اخیر میگویند FLI که عمدتاً توسط بنیاد ماسک تأمین مالی میشود، بهجای اینکه به مشکلات اساسی هوش مصنوعی بپردازد، به سراغ سناریوهای آخرالزمانی خیالی رفته است. از برخی مشکلات اساسی هوش مصنوعی میتوان به رفتارهای نژادپرستانه و جنسیتزده اشاره کرد.
«مارگارت میچل»، یکی از مدیران سابق بخش هوش مصنوعی گوگل و دانشمند کنونی Hugging Face که مقالهاش مورد استناد نامه اخیر قرار گرفته است، از آن انتقاد کرده و گفته است که مشخص نیست منظور از نویسندگان نامه از «قدرتمندتر از GPT-4» چه بوده است:
«این نامه مجموعهای از اولویتها و روایتهایی درباره هوش مصنوعی را بیان میکند که به نفع حامیان FLI است. نادیدهگرفتن آسیبهای کنونی یک امتیاز محسوب میشود که برخی از محققان از آن بهرهای نمیبرند.»
یکی دیگر از محققان به نام «شیری دوری هاکوهن» که درباره تأثیرگذاری استفاده کنونی از سیستمهای هوش مصنوعی روی تصمیمگیریها درزمینه تغییرات اقلیمی، جنگهای هستهای و دیگر تهدیدات وجودی، مقاله نوشته است، میگوید هوش مصنوعی برای اینکه چنین خطراتی را افزایش دهد، نیازی به دستیابی به هوش در سطح انسان ندارد.
در واکنش به این انتقادها، «مکس تگمارک»، رئیس FLI، میگوید که باید خطرات بلندمدت و کوتاهمدت هوش مصنوعی جدی گرفته شوند: «وقتی به فردی در نامه استناد میکنیم، یعنی آن فرد جمله موردنظر را تأیید میکند و نه کل نامه را. علاوهبراین، استناد به این فرد بهمعنای آن نیست که ما همه تفکرات او را تأیید میکنیم.»