توسعه هوش مصنوعی (artificial intelligence) و استفاده از قابلیتهای آن در صنایع مختلف، به میدان رقابت جدید شرکتهای بزرگ IT تبدیل شده است. برای نمونه میتوان به آن کلیپ جنجالی تماس سیستم هوش مصنوعی گوگل با رستوران اشاره کرد که گوگل برای مشتری خود میز رزرو میکرد و حتی به راحتی به سوالها پاسخ میداد. نام آن سیستم داپلکس (DUPLEX) است و حالا گوگل تصمیم گرفته آن را روی گوشیهای جدیدش عرضه کند. اگرچه سپردن این دست کارها به یک دستیار هوشمند یا روبات خوشایند است، اما روی دیگر این فناوری نگرانی از فراگیر شدن استفاده از فناوری است. نگرانیای که حتی پای بزرگان دنیای تکنولوژی مانند ایلان ماسک را به میان کشید تا نسبت به تسخیر زندگی بشر توسط هوش مصنوعی و روباتها را هشدار دهد. در همین راستا، مجمع جهانی اقتصاد در گزارش اخیرش اشاره کرده جهان امروزی فورا به ایجاد یک قرارداد اجتماعی جدید نیاز دارد تا ایمنی نوآوری فناورانه، به ویژه هوش مصنوعی و هماهنگی آن با نیازهای اخلاقی یک جامعه جهانی را تضمین کند.
سوفیا یک روبات انساننما که میتواند صحبت کند و حرکات واقعبینانه را انجام دهد
ازدحام روباتها، پستهای هدفمند یا به اصطلاح تاریک فیسبوک و وبسایتهای خبری جعلی، مدعی یک قلمرو آنلاین اینترنتی شدهاند که پیامدهای قابل توجهی در سطح جهانی دارد. برای مثال، اخبار دخالت و نقش روسیه در انتخابات ریاست جمهوری آمریکا در سال ۲۰۱۶ را در نظر بگیرید. ظاهرا روسیه یک کاندیدا را با راهاندازی یک کمپین عظیم شامل تبلیغات پولی، حساب کاربریهای جعلی در رسانههای اجتماعی و محتوای هدفگذاری شده، حمایت کرد. یا در چین، غولهای دیجیتالی مانند علیبابا و تنسنت، میلیونها دوربین مجهز به فناوری تشخیص چهره را برای ثبت جریان مداوم دادههای احساسی شهروندان مستقر کردهاند. گزارش سازمان ملل متحد تایید کرده در میانمار پستهای فیسبوک باعث نشر سخنان نفرتانگیز و ایجاد تفرقه علیه مسلمانان روهینگیا شد.
اتحاد پرقدرت و سودآور بین هوش مصنوعی و یک جامعه مبتنی بر دادهها، باعث شده شبکههای اجتماعی به معماران مبادلات جامعه امروزی و رهبران جدید تغییر شکل و ساختار واقعی واقعیت تبدیل شوند. بهطور همزمان، فناوریهای مبتنی بر هوش مصنوعی مایل به تضعیف مکانیزمهای حکومت جهانی، به جای اجرای آن خواهند بود. در همین راستا، اضطراب عمومی درباره خسارت تبدیل شدن به یک انقلاب الگوریتمی و از دست دادن کنترل آن یا فرار از پاسخگویی در مقابل آن افزایش یافته است. در نهایت اینکه اعتماد به حکومت ملی و جهانی در نقطه شکست است. به این ترتیب، سازمان ملل متحد با یک مجموعه گسترده از چالشهایی در این زمینه مواجه است که در ادامه به آن اشاره میکنیم.
هوش مصنوعی و تضعیف حقیقت
نخست اینکه هوش مصنوعی بهطور ذاتی یک تکنولوژی با کاربرد دوگانه و با پیامدهای قدرتمندی (هم مثبت و هم منفی) است که پیشبینی، محدود کردن یا تغییر محتوای آن را دشوار میکند. برای نمونه،Deepfake را در نظر بگیرید. برنامههای پیچیده هوش مصنوعی که اکنون میتواند صداها، تصاویر و ویدئوها را دستکاری کرده و هویتهای جعلی را ایجاد کند که اغلب تمایز آن از نمونه اصلی غیرممکن است. الگوریتمهای یادگیری عمیق (Deep-learning) میتوانند با دقت شگفتانگیز، با ترکیب لبهای انسانی (لب خوانی) و تا حدودی شبیهسازی حالت و شکلهای مختلف صورت، سخنرانی کنند.
ممکن است پس از به نتیجه رسیدن این پروژهها در آزمایشگاه، چنین شبیهسازیهایی به راحتی با اثرات گستردهای مورد سوءاستفاده قرار گیرد (این موضوع در حال حاضر در سطح پایین اتفاق میافتد). در آستانه انتخابات، فیلمهای Deepfake میتواند به اشتباه تصاویر مقامات دولتی را که در حال انجام کارهای غیرقانونی مانند دریافت رشوه یا پولشویی هستند را نشان دهد. هراس عمومی با انتشار هشدارهای ویدئویی درباره بیماریهای غیرواقعی یا حملات سایبری ایجاد شده و حوادث جعلی بهطور بالقوه منجر به یک بحران جهانی شود. به هر حال، چنین قابلیتها و شبیهسازیهای گمراهکننده میتواند بهطور موثری بر افکار عمومی تأثیر گذاشته و پیامدهای بلندمدت و پرقدرتی برای نقش سازمان ملل در صلح و امنیت داشته باشد. همچنین انتشار اخبار جعلی، ضمن تضعیف حس اعتماد و حقیقت میان شهروندان و دولت (در واقع در میان دولتها) میتواند عمیقا سیستم حکمرانی جهانی را از بین ببرد.
هوش مصنوعی و نظارت دقیق
دوم، هوش مصنوعی در حال حاضر با طیف وسیعی از سایر فناوریها از جمله فناوریهای زیستی، به منظور تقویت امنیت جهانی، هماهنگ بوده و همکاری میکند. همچنین سیستمهای این فناوری در سراسر جهان با استفاده از دادههای کلان بهدست آمده مانند الگوهای ترافیکی شهرها، بازارهای مالی، دادههای روند رفتار مصرفکننده، پروندههای سلامت و علم ژنتیک آموزش دیده تا به منظور پیشبینی جنبههای مختلف زندگی روزمره انسانها کاربردی باشد. فناوریهای هوش مصنوعی میتوانند دادههای رفتاری و بیولوژیک انسان و حتی پیامدهای آن را در شیوههای نوآورانه و اغلب دستکاری شده کنترل و مهار کنند. بهعنوان مثال، عروسک هوشمند My Friend Cayla، دادههای صوتی و احساسات کودکانی را که با آن بازی میکنند، به سیستمهای کلاد میفرستاد. البته این اتفاق در نهایت منجر به شکایت کمیسیون تجاری فدرال آمریکا و ممنوعیت استفاده از آن در آلمان شد.
در آمریکا، در حال حاضر سیستمهای تجزیه و تحلیل احساسی در دادگاه برای تشخیص و راستآزمایی اظهارات افراد استفاده میشود. حتی ممکن است به زودی این فناوری در مصاحبههای شغلی برای ارزیابی پاسخ افراد و آمادگی شغلی آنها به کار برده شود. توانایی هوش مصنوعی برای نفوذ و کنترل بالقوه روی رفتارهای فردی انسان پیامدهای مستقیمی برای فعالیتها و پیمانهای حقوق بشر سازمان ملل متحد دارد. در حقیقت، شکلهای جدید کنترل اجتماعی و زیستمحیطی مستلزم تجدیدنظر درباره چارچوب کنونی است تا ضمن نظارت بر اعلامیه جهانی حقوق بشر، آن را اجرا کند. همچنین بهطور قطع یک سیستم چندجانبه برای پیشبینی بهتر و درک این زمینه نوظهور مورد نیاز است.
میدان نبرد هوش مصنوعی
در نهایت، توانایی فناوریهای مبتنی بر هوش مصنوعی برای تأثیرگذاری بر جمعیتهای بزرگ، از سرعت و ارزش بالایی برخوردار بوده که مطمئنا نمایشی برای تضادهای آینده است. در واقع چشمانداز یک «نبرد سایبری» وجود دارد که در آن کشورهای پرقدرت و سیستمهای بزرگ فناوری وارد رقابت آزاد برای تجمیع داده افراد، بهعنوان عاملی برای ایجاد برتری اقتصادی، پزشکی و امنیتی در سراسر جهان شدهاند. شکلهای استعمار سایبری (cyber-colonization) بهعنوان دولتهای قوی و قادر به استفاده از هوش مصنوعی و بیوتکنولوژی برای درک و کنترل سایر جوامع و اکوسیستمها در حال توسعه است.
حکمرانی جهانی هوش مصنوعی
جوامع امروزی از لحاظ سیاسی، قانونی و اخلاقی برای استقرار هوش مصنوعی آماده نیستند. سازمان ملل متحد که چند دهه قبل از ظهور این فناوریها تأسیس شده، به دلایل مختلفی برای توسعه یک حکومت مسوولیتپذیر که بتواند پتانسیل هوش مصنوعی را از این ریسکها دور کرده و به سوی ایمنی و رفاه جمعی انسانها هدایت کند، ضعیف ظاهر شده است. در واقع، احیای برنامههای ملیگرا در سراسر جهان به یک ظرفیت سیستم چند جانبه ناتوان اشاره دارد که میتوان نقش قابلملاحظهای در مدیریت جهانی هوش مصنوعی ایفا کند. شرکتهای بزرگ و کشورهای پرقدرت ممکن است در ایجاد رویکردهای چندجانبه برای تحقق آنچه که آنها تکنولوژیهای سودآور و اختصاصی در نظر میگیرند، کمی توجه کنند. اما برخی از راهکارهای نوآورانه وجود دارد که در آن سازمان ملل متحد میتواند به ایجاد نوع شبکههای مشارکتی و شفاف کمک کند تا اعتماد را حفظ و تقویت کند.
مرکز تحقیقات سیاستگذاری در دانشگاه ملل متحد(UNU) که مسوول ارائه استراتژی دبیرکل سازمان ملل در مورد فناوریهای جدید است، یک «هوش مصنوعی و پلتفرم حکمرانی جهانی» بهعنوان یک فضای فراگیر برای محققان، سیاستگذاران، شرکتها و اندیشهگران ایجاد کرده تا چالشهای سیاستی جهانی مطرح شده توسط هوش مصنوعی کشف کنند. با توجه به مأموریت تحت نظارت رهبران در این زمینه، این پلتفرم برای ایجاد بینش منحصر به فرد و جامع برای اطلاع رسانی بحثهای موجود است. این بینش از طرف سازمان ملل متحد، سازمانهای چندجانبه، صندوقها، برنامهها و سایر سهامداران پشتیبانی میشود بهطوری که آنها خودشان و نقشهایشان را در شکلگیری حکمرانی هوش مصنوعی جدا از یکدیگر در نظر نمیگیرند. شاید مهمترین چالش برای سازمان ملل در این زمینه، ایجاد حس اعتماد به سیستم چند جانبه ایجاد شده است. اما اگر آنطور که روندهای فوق نشان میدهند، فناوریهای مبتنی بر هوش مصنوعی، مسالهای فردی و منحصر به هر دولت بوده و هیچگونه شکل مشترک از حکومتداری ندارد، آن زمان خطر واقعی به وجود میآید که ثبات جهانی را تضعیف میکند.