انتقاد جدی گروههای حامی حریم خصوصی به المپیک پاریس و نظارت با هوش مصنوعی
المپیک پاریس که روز جمع آغاز شد را میتوان اولین میزبانی کشورهای بزرگ غربی از یک پدیده جدید و بحث برانگیز در جهان فناوری دانست. نشریه حقوقی بلومبرگ گزارش میدهد که استفاده از سیستمهای نظارت ویدیویی با استفاده از الگوریتم باعث بحثهای بسیاری در این رابطه شده است. علاوه بر نگرانیها از نقض حریم خصوصی، بسیاری به سوگیری این ابزارها و عدم بازدهی آنها در مطالعات انجام گرفته اشاره میکنند و خواستار شفافسازی بیشتری در این رابطه هستند.
براساس یک قانون موقت در فرانسه، مقامات این کشور امکان استفاده از هوش مصنوعی و یادگیری ماشینی برای تجزیه تحلیل آنی اطلاعات ویدیویی و نظارت هوشمند بر جمعیتها را فراهم کردهاند. این ابزارها قرار است ناهنجاری و تهدیدها را با سرعت بالایی تشخیص داده و حتی پیشبینی کنند.
دوربینهای سراسر شهر پاریس میلیونها طرفدار المپیک و شهروند پاریس را با دقت زیر نظر میگیرند و قرار است چیزهایی مثل وجود اسلحه یا حرکت افراد در خلاف جهت جمعیت و دیگر موارد عجیب را شناسایی کنند. در صورت تشخیص ناهنجاری و تهدید، این موارد به کارکنان امنیتی اطلاع داده میشود و آنها درمورد گزارش به پلیس ملی و محلی تصمیم میگیرند.
با اینکه قانونگذاران فرانسوی این ابزار را یک اقدام امنیتی ویژه برای جلوگیری از خشونت در این مراسم چند هفتهای عنوان میکنند، اما حامیان حریم خصوصی در سراسر جهان در این باره اظهار نگرانی کردهاند.
آری ازرا والدمن، استاد حقوق دانشگاه کالیفرنیا، با اشاره به فیلم علمیتخیلی Minority Report سال ۲۰۰۲، میگوید: «آنچه این ابزارها قرار است محقق کنند چیزی شبیه به تلاشهای پیش از هوشیاری تام کروز در آن فیلم چند سال پیش است.»
برخی از حامیان حریم خصوصی میگویند این فناوری آزادیهای مدنی را نقض می:ند، سوگیری ذاتی دارد و با احتمال اشتباه روبرو است. همچنین جمعآوری داده در آینده نیز ادامه پیدا میکند و از این فناوری در مراسمهای بزرگ آمریکایی، از جمله المپیک سال ۲۰۲۸ لس آنچلس، استفاده خواهد شد.
با اینکه والدمن و دیگر حامیان حریم خصوصی به افزایش خطرات احتمالی در نتیجه گرد هم آمدن چنین اعتراف میکنند اما از نظر آنها راههای دیگر و بازارهای بهتری وجود دارند که با نگرانیهای حریم خصوصی کمتری هم همراه هستند.
به گفته والدمن استادیومها به خوبی با حسگرهای فلز، بررسی بدنی و مقررات عدم حمل کیف، جمعیت را مدیریت میکنند. به گفته او اصرار بر استفاده از هوش مصنوعی برآمده از رویکردی است که استفاده از فناوری را همواره بهتر از روشهای سابق میداند.
قانونی که امکان استفاده از چنین نظارتی را در فرانسه فراهم کرده است پس از یک دوره مشخص منسوخ میشود. در حالی که با اتکا به همین قانون میتوان برای مسابقات پارالمپیک ۲۰۲۴ که ۲۸ آگوست آغاز میشود نیز از نظارت الگوریتمی استفاده کرد، اما بهار سال آینده دیگر چنین قانونی وجود نخواهد داشت.
با این حال از نگاه حامیان حریم خصوصی، افزایش استفاده از سیستمهای هوش مصنوعی ویدیویی در چنین مراسمهای مهمی ممکن است باعث میل بیشتر به استفاده از این سیستمها در مناطق دیگر شود.
الا جاکوبفسکی، رئیس سیاستگذاری در سازمان حقوق دیجیتال اروپاییان (European Digital Rights)، میگوید: «آنها همیشه از این اسبهای تروجان استفاده میکنند تا استفاده گستردهتر از این فناوریها را اجرایی کنند.»
نگرانیهای جدی
با اینکه قوانین فرانسوی تنها برای یک دوره مشخص استفاده از این سیستمها را مجاز میداند و در این مقررات تصریح شده است که سیستمها اطلاعات بیومتریک را پردازش نمیکنند، اما گروههای حامی حریم خصوصی تردید دارند.
سازمان حقوق دیجیتال اروپاییان و حدود سی سازمان حقوق بشری دیگر سال گذشته در نامه سر گشادهای اعلام کردند با اینکه این سیستمها براساس قوانین فرانسه از ترفندهای تشخیص چهره استفاده نمیکنند، اما همچنان افراد را در میان جمعیت شناسایی میکنند. درنتیجه شاهد «شناسایی خاص» هستیم که محافظتهای موجود در مقررات عمومی حفاظت از داده اتحادیه اروپا را نقض میکند.
همچنین به گفته لاورا لازارو کابررا، مشاور و مسئول طرح برابر و داده در مرکز دموکراسی و فناوری، این ابزارها برای تشخیص آن دسته از رخدادهایی که قرار است زیر نظر بگیرند نیاز به دادههای بیومتریک دارند.
لازارو کابررا میگوید: «[این سیستم] لزوما مشخصههای فیزیولوژیکی رفتارها و افرادی را که در این فضاها حضور دارند، از جمله حالت بدنی آنها، حرکتها، حالتها و غیره را ثبت و تجزیهتحلیل میکند.»
افزون بر این، با اینکه مدارک کافی از بازدهی این سیستمها وجود ندارد، از آنها در موضوعات احساسی استفاده میشود. مطالعهای در سال ۲۰۲۳ از The Markup و Wired نشان داد که نرمافزار نظارت پیشگویانه Geolitica در پیشبینی جریام ضعیف است و نرخ موفقیت آن برای برخی از جرایم تا ۰.۱ درصد کاهش مییابد. تحقیقات دیگری در سال گذشته نیز نشان داد که استفاده از ابزارهای تشخیص جهره خودکار در نهادهای انتظامی به دستگیری بیشتر سیاهپوستان منجر میشود که از نگاه تحلیلگران به وضعیت دیتاست این ابزارها بر میگردد.
به همین دلیل گروههای حقوق بشری میگویند باید درمورد میزان بازدهی این سیستمها برای عموم شفافسازی شود تا مردم نیت خیر استفاده از آنها را به معنی بازدهی و کاربردی بودن آنها تلقی نکنند.