سرورهای هوش مصنوعی اپل را هک کنید و یک میلیون دلار جایزه ببرید
اپل برای کشف هرگونه آسیبپذیری امنیتی در سرورهای هوش مصنوعیاش، حداکثر یک میلیون دلار جایزه میدهد.
اپل از محققان امنیت سایبری دعوت کرده تا به بررسی و تحقیق درمورد سیستم Private Cloud Compute (PCC) بپردازند. این سیستم، پردازشهای محاسباتی سنگین هوش مصنوعی اپل را بر عهده دارد. اپل برنامهی باگ بانتی خود را گسترش داده است و تا سقف یک میلیون دلار به افرادی که موفق به کشف آسیبپذیریهای سیستم PCC شوند، پاداش خواهد داد.
اپل به خود میبالد که بسیاری از ویژگیهای اپل اینتلیجنس بدون نیاز به اینترنت، بهطور مستقیم و محلی (آفلاین) روی دستگاههای اپل مانند مک و آیفون اجرا میشوند. با اینحال، برای پردازش درخواستهای پیچیدهتر، اپل از سرورهای PCC استفاده خواهد کرد که با بهرهگیری از تراشههای اختصاصی اپل و سیستمعامل جدید، طراحی شده است.
بسیاری از ابزارهای هوش مصنوعی شرکتهای دیگر نیز برای انجام محاسبات پیچیدهتر به سرورها متکی هستند؛ اما کاربران اطمینان چندانی از امنیت سرورها ندارند. اپل همواره بر اهمیت حریم خصوصی کاربران تاکید کرده و طراحی ضعیف سرورهای ابری برای هوش مصنوعی میتواند به این وجهه آسیب جدی وارد کند.
برای جلوگیری از چنین وضعیتی، اپل اعلام کرد که سیستم PCC را به گونهای طراحی کرده است که تضمینهای امنیتی و حفظ حریم خصوصیِ این شرکت قابل اثبات باشد و محققان امنیت سایبری بتوانند بهصورت مستقل صحت این تضمینها را بررسی کنند.
اپل برای محققان امنیتی موارد زیر را ارائه میدهد:
یک راهنمای امنیتی که جزئیات فنی PCC را شرح میدهد.
ارائهی فضایی بهنام Virtual Research Environment که به شما امکان میدهد تحلیل امنیتی PCC را روی مک خود انجام دهید (باید یک مک با تراشهی اپل سیلیکون و ۱۶ گیگابایت رم یا بیشتر داشته باشید و جدیدترین نسخهی macOS Sequoia 15.1 Developer Preview را اجرا کنید).
کد منبع در GitHub برای برخی از اجزای کلیدی PCC که به «اجرای الزامات امنیتی و حریم خصوصی آن کمک میکنند.»
اپل، در چارچوب برنامهی پاداشدهی به کشف آسیبپذیریها، مبالغی بین ۵۰ هزار تا یک میلیون دلار برای شناسایی ضعف امنیتی در دستههای مختلف نرمافزاری خود در نظر گرفته است. افزونبر این، هرگونه نقص امنیتی که تأثیر قابل توجهی بر سیستم PCC داشته باشد، مورد ارزیابی قرار گرفته و امکان دریافت پاداش برای آن وجود دارد.