نقض ایمنی هوش مصنوعی در OpenAI
به ادعای یکی از کارکنان OpenAI، این شرکت با عجله آزمایشهای ایمنی GPT-4o را انجام داده و قبل از اطمینان کامل از ایمنی این مدل آن را معرفی کرده است. به گفته این فرد ناشناس، آنها در اولین آزمایش ایمنی این مدل پیشرفته شکست خورده بودند.
یکی از کارمندان ناشناس OpenAI به واشنگتن پست گفته است: «آنها قبل از آنکه بدانند این مدل [GPT-4o] ایمن است، برنامه رونمایی آن را ترتیب دادند. ما اساساً در این فرایند شکست خوردیم.» او میگوید OpenAI برای عرضه آخرین مدل هوش مصنوعی خود عجله کرد.
بااینحال، سخنگوی OpenAI به واشنگتن پست میگوید عرضه GPT-4o باعث نشده در توجه به نکات ایمنی کمکاری شود. بااینحال منبع ناشناس اذعان میکند جدول زمانی بررسی ایمنی این مدل در یک هفته فشرده شده بود.
ایمنی یکی از نکات مهم منشور OpenAI است. در این منشور بندی وجود دارد که میگوید OpenAI درصورتی که سایر سازمانهای رقیب به AGI (هوش جامع مصنوعی) دست یافتند، بهجای ادامه رقابت، به آنها کمک میکند ایمنی آن را ارتقا دهند. علاوهبراین OpenAI ظاهراً مدعی است مدلهای اختصاصی خود را به دلایل ایمنی بهصورت متنباز درنمیآورد.
بااینحال چند وقت اخیر نگرانیها پیرامون نقض ایمنی هوش مصنوعی در OpenAI و دیگر توسعهدهندگان مدلهای بزرگ افزایش یافته است. وزارت امور خارجه ایالات متحده چند ماه قبل اعلام کرد: «توسعه هوش مصنوعی پیشتاز فعلی خطرات فوری و فزایندهای برای امنیت ملی ایجاد میکند. ظهور هوش مصنوعی پیشرفته و AGI این پتانسیل را دارد که امنیت جهانی را به شیوههایی که یادآور معرفی سلاحهای هستهای است، بیثبات کند.»
پیشازاین نیز «یان لیکه»، یکی از محققان امنیت هوش مصنوعی OpenAI، در زمان استعفا گفته بود طی سالهای گذشته، فرهنگ و فرایند ایمنیسازی هوش مصنوعی در این شرکت جایش را به عرضه محصولات پرزرقوبرق داده است. همچنین کارمندان فعلی و سابق OpenAI اخیراً نامهای امضا کردهاند که در آن از این شرکت خواستهاند اقدامات ایمنی بهتری در پیش بگیرد.