توسعهدهندگان DALL-E میگویند این هوش مصنوعی میزبان تغییراتی شده است تا بتواند تصویری از چهرهی انسانهایی که در دنیای واقعی وجود ندارند، خلق کند.
DALL-E، هوش مصنوعی شرکت OpenAI، طی چند وقت اخیر در شبکههای اجتماعی بسیار خبرساز شده است چون میتواند از روی پیامهای متنی تصاویری عجیبوغریب تولید کند. OpenAI میگوید تغییراتی در این مدل هوش مصنوعی اعمال کرده تا محققان بتوانند تصاویر خلقشده از چهرهی انسانهایی را که در دنیای واقعی وجود ندارند، به اشتراک بگذارند.
براساس ایمیلی جدید، کاربران از این پس میتوانند تصاویر واقعگرایانهی چهرهی انسان را که توسط DALL-E خلق شدهاند بهصورت عمومی به اشتراک بگذارند. توسعهدهندگان میگویند تدابیری برای جلوگیری از تولید تصاویر دیپفیک در نظر گرفتهاند.
VICE مینویسد توسعهدهندگان دو قابلیت امنیتی جدید به این هوش مصنوعی اضافه کردهاند. به موجب این سیستمهای امنیتی، DALL-E هرگونه تلاش برای ساخت تصاویر مشابه شخصیتهای سرشناس ازجمله سلبریتیها را رد میکند. DALL-E همچنین اجازهی آپلود تصاویر چهرهی انسانها را صادر نمیکند. سیستم امنیتی DALL-E تا قبل از اعمال بهروزرسانیهای جدید صرفاً تلاش برای ایجاد تصویر مربوط به شخصیتهای سیاسی را خنثی میکرد.
محققان از همین حالا نمونههای اولیهی چهرههای خلقشده با DALL-E را در شبکههای اجتماعی منتشر کردهاند و نتایج کار بسیار عجیب به نظر میرسد.
OpenAI has decided today that it’s safe for us to start sharing images containing realistic faces. DALL-E2 is actually excellent at faces.
From here on, this feed will largely be machine dreams of people that never existed.
Created with @openai #dalle #dalle2 #AI pic.twitter.com/alfmKeaAiE
— Patrick Clair (@PatrickClair) June 21, 2022
هوش مصنوعی DALL-E همچنان در مرحلهی آزمایشی به سر میبرد و توسط تعداد محدودی از محققان مورد استفاده قرار میگیرد. OpenAI محدودیتهایی برای محققان در نظر گرفته، به همین دلیل این افراد نمیتوانند هرآنچه را که دربارهی DALL-E میدانند با عموم مردم به اشتراک بگذارند.
در همین حین پروژههای داوطلبانهی کوچکتری مثل DALL-E Mini به عموم مردم امکان میدهند تصاویر و میمها را با اتکا به هوش مصنوعی از روی پیامهای متنی خلق کنند. البته نتایج حاصل از DALL-E Mini کیفیت بسیار پایینتری نسبت به DALL-E دارد.
توانایی DALL-E برای خلق تصویر چهرهی انسان سؤالات اخلاقی زیادی را در ذهن ایجاد میکند، حتی با دانستن این موضوع که چهرههای یادشده به انسانهای واقعی تعلق ندارند. محققان متمرکز بر اخلاقیات در حوزهی هوش مصنوعی هشدار دادهاند که سیستمهای یادگیری ماشین بزرگ نظیر DALL-E ممکن است ازطریق رفتارهای تبعیضآمیز به مردم محروم آسیب برسانند و این نوع رفتارها بهسادگی از سیستم قابلحذف نیستند.
محققان شرکت OpenAI اعتراف کردهاند که وقتی کلماتی خاص در پیام متنی جای داده شود، DALL-E بهطور مکرر محتواهای نژادپرستانه و جنسی را خلق میکند. مدلهای هوش مصنوعی دیگری که توسط شرکتهای بزرگی مثل فیسبوک و گوگل ساخته شدهاند نیز عملکردشان چندان بهتر نبوده است.
محققان هوش مصنوعی میگویند تمام تلاش خود را به کار میگیرند تا با روی کار آوردن سیستمهایی امنیتی جلوی سوءاستفاده از مدلهای یادگیری ماشین را بگیرند. بااینحال به نظر میرسد فعلاً اطلاعات خیلی زیادی دربارهی تواناییهای سیستمهایی مثل DALL-E و آسیبهایی که این سیستمها ممکن است ایجاد کنند نمیدانیم.