تعهد شرکتهای پیشرو در هوش مصنوعی برای حفاظت از کودکان
شرکتهای پیشروی جهان در زمینه هوش مصنوعی متعهد میشوند که از ایمنی آنلاین کودکان محافظت کنند.
به گزارش ایسنا، شرکتهای اوپن ایآی(OpenAI)، مایکروسافت، گوگل، متا و دیگران که همگی دستی بر آتش هوش مصنوعی و توسعه روزافزون آن دارند، قول دادهاند که مانع ابزارهای هوش مصنوعی برای تولید و انتشار محتوای حاوی سوء استفاده از کودکان به ویژه سوء استفاده جنسی از آنان شوند.
به نقل از انگجت، شرکتهای پیشرو در حوزه هوش مصنوعی از جمله اوپن ایآی، مایکروسافت، گوگل و متا به طور مشترک متعهد شدهاند که نگذارند ابزارهای هوش مصنوعی برای بهرهکشی از کودکان و سوء استفاده جنسی از آنها مورد استفاده قرار گیرند.
این ابتکار توسط گروه ایمنی کودکان تورن(Thorn) و All Tech Is Human که یک سازمان غیرانتفاعی متمرکز بر فناوری مسئولانه است، رهبری میشود.
این سازمانها میگویند، این متعهد شدن شرکتهای هوش مصنوعی، سابقهای پیشگامانه برای این صنعت ایجاد کرد و نشاندهنده یک جهش قابل توجه در تلاشها برای دفاع از کودکان در برابر سوء استفاده جنسی در ارتباط با هوش مصنوعی مولد است.
هدف این ابتکار جلوگیری از ایجاد مطالب صریح جنسی برای کودکان و حذف آن از سکوهای رسانههای اجتماعی و موتورهای جستجو است.
سازمان تورن میگوید، بیش از ۱۰۴ میلیون فایل حاوی مطالب مشکوک به سوء استفاده جنسی از کودکان تنها در سال ۲۰۲۳ در ایالات متحده گزارش شده است و در غیاب یک اقدام جمعی، هوش مصنوعی مولد میتواند این مشکل را بدتر کند و سازمانهای مجری قانون را که در حال حاضر برای شناسایی قربانیان واقعی تلاش میکنند، تحت تأثیر قرار دهد.
روز گذشته این دو سازمان مقاله جدیدی با عنوان «ایمنی در طراحی هوش مصنوعی مولد: جلوگیری از سوء استفاده جنسی از کودکان» منتشر کردند که استراتژیها و توصیههایی را برای شرکتهایی که ابزارهای هوش مصنوعی، موتورهای جستجو، سکوهای رسانههای اجتماعی و شرکتهای هاستینگ را میسازند، ارائه میکند تا توسعه دهندگان اقدامات لازم را برای جلوگیری از استفاده از هوش مصنوعی مولد برای آسیب رساندن به کودکان انجام دهند.
به عنوان مثال، یکی از توصیهها از شرکتها میخواهد که مجموعههای دادهای را به دقت برای آموزش مدلهای هوش مصنوعی انتخاب کنند و نه فقط از مجموعههایی که حاوی نمونههایی از سوء استفاده جنسی از کودکان هستند، بلکه کلاً از محتوای جنسی بزرگسالان نیز پرهیز کنند، چرا که هوش مصنوعی مولد تمایل دارد هر دوی آنها را با هم ترکیب کند.
تورن همچنین از سکوهای رسانههای اجتماعی و موتورهای جستجو میخواهد پیوندهایی به وبسایتها و برنامههایی که به افراد اجازه میدهد از تصاویر کودکان سوء استفاده کنند، حذف کنند.
بر اساس این مقاله، سیل محتواهای سوءاستفاده از کودکان تولید شده توسط هوش مصنوعی، شناسایی قربانیان واقعی سوء استفاده جنسی از کودکان را دشوارتر میکند.
ربکا پورتنوف، معاون علوم داده سازمان تورن به وال استریت ژورنال گفت: ما میخواهیم بتوانیم مسیر این فناوری را به سمتی تغییر دهیم که آسیبهای موجود این فناوری از پایه قطع شود.
پورتنوف گفت برخی از شرکتها قبلاً توافق کرده بودند تصاویر، ویدیو و صداهایی را که شامل کودکان میشد از مجموعه دادههای حاوی محتوای بزرگسالان جدا کنند تا مدلهایشان از ترکیب این دو جلوگیری کنند. دیگران نیز برای شناسایی محتوای تولید شده توسط هوش مصنوعی، واترمارک به آن اضافه میکنند، اما این روش کارساز نیست، چرا که واترمارکها را میتوان به راحتی حذف کرد.