هوش مصنوعی

May 10, 2024
13:17 جمعه، 21ام اردیبهشتماه 1403
کد خبر: 165948

چالش بزرگی به نام «تشخیص تصاویر جعلی هوش مصنوعی»

شرکت اوپن‌ای‌آی(OpenAI) می‌گوید می‌تواند تصاویری را که توسط نرم‌افزار خودش ساخته شده‌اند، تشخیص دهد و در حال آزمایش ابزار جدیدی برای این منظور است، اما این ابزار برای تصاویر سایر مدل‌ها یا تصاویری که دستکاری شده‌اند، کارآمد نیست و این تهدید بزرگی است.

به گزارش ایسنا، همه ما فکر می‌کنیم که در شناسایی تصاویر ساخته شده توسط هوش مصنوعی بسیار خوب هستیم، چرا که تاکنون عادت داشته‌ایم تصاویری که توسط هوش مصنوعی ساخته می‌شوند را همراه با نقص‌های گاه فاحش و گاه ظریف ببینیم که تشخیص ساختگی بودن آنها را برایمان آسان می‌کرد.

به نقل از انگجت، با این حال فناوری به طور دائم در حال پیشرفت است و زمان زیادی نخواهد گذشت تا ببینیم دیگر نمی‌توانیم بگوییم چه چیزی واقعی است یا توسط هوش مصنوعی تولید شده است.

اکنون رهبر صنعت توسعه هوش مصنوعی یعنی شرکت اوپن‌ای‌آی در تلاش است تا با ایجاد مجموعه ابزاری که تصاویر ایجاد شده توسط هوش مصنوعی مولد DALL-E ۳ خود را شناسایی می‌کند، بر این مشکل غلبه کند.

این شرکت می‌گوید که می‌تواند تصاویری را که توسط DALL-۳ ساخته شده است، در ۹۸ درصد مواقع به دقت تشخیص دهد که دقتی بسیار عالی است. با این حال، برخی نواقص وجود دارند. اول از همه اینکه یک تصویر باید حتما توسط DALL-E ایجاد شده باشد و عیب اینجاست که این هوش مصنوعی تنها هوش مصنوعی در دسترس برای تولید تصاویر نیست.

در حالی که فضای اینترنت از تصاویر تولید شده توسط هوش مصنوعی پر شده است، بر اساس داده‌های ارائه شده توسط اوپن‌ای‌آی، سیستم آن تنها موفق شد ۵ تا ۱۰ درصد از تصاویر ساخته شده توسط سایر مدل‌های هوش مصنوعی را با موفقیت تشخیص دهد.

همچنین اگر تصویر به هر نحوی اصلاح شده باشد، این ابزار تشخیصی با مشکل مواجه می‌شود. البته در مورد تغییرات جزئی مانند برش و فشرده‌سازی به نظر نمی‌رسد که این موضوع چندان مهم باشد. در این موارد، میزان موفقیت کمتر بود، اما همچنان در محدوده قابل قبولی در حدود ۹۵ تا ۹۷ درصد بود. با این حال اصلاح رنگ، میزان موفقیت را به ۸۲ درصد کاهش داد.

اینجا جایی است که همه چیز پیچیده می‌شود، چرا که این ابزار زمانی که برای تشخیص و طبقه‌بندی تصاویری که دستخوش تغییرات گسترده‌تری شده بودند، استفاده شد، با مشکل مواجه شد. اوپن‌ای‌آی حتی میزان موفقیت در این موارد را نیز منتشر نکرد و به گفتن اینکه سایر تغییرات می‌توانند عملکرد این ابزار را پایین بیاورند، بسنده کرد.

این یک اتفاق ناگوار است، چرا که تصاویر تولید شده توسط هوش مصنوعی پس از دستکاری ایجاد و تغییرات و اصلاح می‌توانند آثار سوئی بر مردم داشته باشند.

حداقل اوپن‌ای‌آی در مورد محدودیت‌های فناوری تشخیص خود شفاف است. این شرکت همچنین به آزمایش کنندگان خارجی دسترسی به ابزارهای ذکر شده را برای کمک به رفع این مشکلات می‌دهد.

اوپن‌ای‌آی همراه با مایکروسافت، ۲ میلیون دلار برای چیزی به نام صندوق تاب آوری اجتماعی(Societal Resilience Fund) سرمایه‌گذاری کرده است که امیدوار است آموزش و سواد در حوزه هوش مصنوعی را افزایش دهد.

  • مشترک شوید!

    برای عضویت در خبرنامه روزانه ایستنا؛ نشانی پست الکترونیکی خود را در فرم زیر وارد نمایید. پس از آن به صورت خودکار ایمیلی به نشانی شما ارسال میشود، برای تکمیل عضویت خود و تایید صحت نشانی پست الکترونیک وارد شده، می بایست بر روی لینکی که در این ایمیل برایتان ارسال شده کلیک نمایید. پس از آن پیامی مبنی بر تکمیل عضویت شما در خبرنامه روزانه ایستنا نمایش داده میشود.

    با عضویت در خبرنامه پیامکی آژانس خبری فناوری اطلاعات و ارتباطات (ایستنا) به طور روزانه آخرین اخبار، گزارشها و تحلیل های حوزه فناوری اطلاعات و ارتباطات را در هر لحظه و هر کجا از طریق پیام کوتاه دریافت خواهید کرد. برای عضویت در این خبرنامه، مشترکین سیمکارت های همراه اول لازم است عبارت 150 را به شماره 201464 و مشترکین سیمکارت های ایرانسل عبارت ozv ictn را به شماره ۸۲۸۲ ارسال کنند. دریافت موفق هر بسته خبری که محتوی پیامکی با حجم ۵پیامک بوده و ۴ تا ۶ عنوان خبری را شامل میشود، ۳۵۰ ریال برای مشترک هزینه در بردارد که در صورتحساب ارسالی از سوی اپراتور مربوطه محاسبه و از اعتبار موجود در حساب مشترکین سیمکارت های دائمی کسر میشود. بخشی از این درآمد این سرویس از سوی اپراتور میزبان شما به ایستنا پرداخت میشود. مشترکین در هر لحظه براساس دستورالعمل اعلامی در پایان هر بسته خبری قادر خواهند بود اشتراک خود را در این سرویس لغو کنند. هزینه دریافت هر بسته خبری برای مشترکین صرفا ۳۵۰ ریال خواهد بود و این هزینه برای مشترکین در حال استفاده از خدمات رومینگ بین الملل اپراتورهای همراه اول و ایرانسل هم هزینه اضافه ای در بر نخواهد داشت.