تشبیه هوش مصنوعی و بمب اتم، نگرانیهای تازهای را به جان آدمیان انداخته است؛ اما آیا این دو واقعاً به یکدیگر شباهت دارند؟
حتی اگر کسی خیلی از بمب اتمی و سازوکار آن سر درنیاورد، حداقل از سرنوشت سالهای دور مردم هیروشیما و ناکازاکی خبر دارد. هوش مصنوعی هم که دیگر آنقدر سروصدا بهپا کرده است که بعید میدانیم کسی از نگرانیهای حاصل از آن چیزی نشنیده باشد یا حداقل یک بار به آن فکر نکرده باشد.
تا چندی پیش، نگرانیهای حاصل از هوش مصنوعی برای برخی از افراد فقط در نابودی مشاغل خلاصه میشد؛ اما حالا کار به جایی رسیده است که قدرت تخریب هوش مصنوعی با بمب اتمی مقایسه میشود و ترس و نگرانی بیشتری را به جان انسانها میاندازد. هوش مصنوعی با سرعت نگرانکنندهای ظاهر شده و با خطرهای جدی همراه است که بشر برای مواجهه با آنها آمادگی ندارد.
آیا هوش مصنوعی از بمب اتم مخربتر است و میتواند خطری وجودی برای آیندهی بشر باشد؟ در این مقاله، چراییِ مقایسهی هوش مصنوعی و بمب اتم را بررسی میکنیم؛ پس با زومیت همراه شوید.
مقایسهی هوش مصنوعی و بمب اتم از کجا چشمه میگیرد؟
قضیه از این قرار است که در ماه می رؤسای آزمایشگاههای هوش مصنوعی و برخی از محققان و افراد برجستهای همچون بیل گیتس، در بیانیهای بلندبالا به این موضوع اشاره کردند که کاهش خطر انقراض بهواسطهی هوش مصنوعی باید درکنار سایر خطرهای اجتماعی مانند بیماریهای همهگیر و جنگ هستهای دارای اولویتی جهانی باشد.
این بیانیه را بسیاری از افراد مطرح در این زمینه، ازجمله رهبران OpenAI، گوگل، آنتروپیک و دو تن از بهاصطلاح «پدرخواندههای» هوش مصنوعی، یعنی جفری هینتون و یوشوا بنجیو، امضا کردند.
هوش مصنوعی میتواند خطری وجودی برای بشر باشد؛ خطری همتراز با جنگ هستهای
بیانیهی امضاشده هوش مصنوعی را با بیماریهای همهگیر و سلاحهای هستهای بهعنوان خطری بزرگ برای تمدن همراه کرد؛ اما بهنظر میرسد این مقایسه مشکلاتی دارد.
کووید۱۹ تقریباً به هفتمیلیون مرگ در سراسر جهان منجر شد و بحرانی گسترده را بههمراه داشت و مشکلات اقتصادی و تورم سرسامآوری ایجاد کرد. درمقابل، بمب اتمی هزاران نفر را به دامان مرگ کشاند، در سالهای پسازآن جان بسیاری از افراد مبتلا به سرطان را گرفت، دههها اضطراب عمیقی را در طول جنگ سرد ایجاد کرد و جهان را به مرز نابودی رساند.
جالب است بدانید که بسیاری از هشدارها دربارهی هوش مصنوعی از سوی ذهنهای درخشانی میآید که در توسعهی آن ایفای نقش کردهاند. آنها هشدار دادهاند که هوش مصنوعی میتواند خطری وجودی برای بشر باشد؛ خطری همتراز با جنگ هستهای.
بخشی از این نگرانیها هم از فیلم جدید کریستوفر نولان، اوپنهایمر، نشئت میگیرد. اگرچه جبر جغرافیایی درحالحاضر ما را از تماشای ساختهی جدید نولان محروم کرده است، از گوشهوکنار خبرهایی به گوشمان میرسد و با کمی کنکاش در تاریخ میتوانیم حدس بزنیم که ریشهی این نگرانیها کجا است و چرا هوش مصنوعی با بمب اتمی مقایسه میشود.
آیا هوش مصنوعی و رباتها میخواهند ما را از کار بیکار کنند؟
سؤال این است که اصلاً چنین ترسهایی چگونه ظاهر میشوند؟ یکی از نظریههای معروف در این زمینه «Paper Clip Maximizer» نام دارد که اولینبار نیک بوستروم، فیلسوف آکسفورد، آن را مطرح کرد. فرض کنید از هوش مصنوعی خواستهاید گیرههای کاغذ فراوانی تولید کند.
AI ممکن است آنقدر موضوع را جدی بگیرد که برای یافتن مواد اولیه، کارخانهها را تخریب و تصادفات رانندگی ایجاد کند و درآخر تصمیم بگیرد هرچیزی در جهان ازجمله انسانها را به گیرهی کاغذ تبدیل کند.
هوش مصنوعی در دستیابی به اهداف موفق عمل میکند؛ اما ازآنجاکه لزوماً با ارزشهای اخلاقی سازندگانش همخوانی ندارد، نمیتوان خطرناکبودن آن را نادیده گرفت و اگر بخواهیم خیلی افراطی فکر کنیم، در بدترین حالت، میتواند دربارهی بردگی یا نابودی نژاد بشر نگرانیهایی ایجاد کند.
شباهتهای میان هوش مصنوعی و بمب اتم را نمیتوان نادیده گرفت؛ اما دراینبین، تفاوتهایی نیز وجود دارد. بهطور خلاصه، شباهتها و تفاوتهای این دو را میتوان مانند زیر بیان کرد.
ظرفیت آسیب جمعی
نیازی به توضیح ندارد که سلاحهای هستهای چگونه میتوانند آسیب جمعی را در مقیاسی ایجاد کنند که تابهحال تجربه نکردهایم؛ اما این ظرفیت دربارهی هوش مصنوعی نیازمند توضیح بیشتری است.
دسترسی گسترده به هوش مصنوعی، میتواند آسیبهایی جدی در پی داشته باشد
بسیاری از محققان نشان دادهاند سیستمهای یادگیری ماشین موجود که برای اهدافی مانند خدمات مراقبت از کودکان استفاده میشوند، اغلب از تبعیضهای موجود در دادههای آموزشی خود بهره میبرند. با گسترش این مدلها و بهکارگیری آنها برای اهداف بیشتر، این سوگیریها بهتدریج بر زندگی ما اثر میگذارند و ممکن است خطرهای جدی بهدنبال داشته باشند.
افزونبراین، سیستمهای هوش مصنوعی پیچیده ظرفیت سوءاستفاده بسیار زیادی دارند. مقالهای نشان میدهد که پژوهشگران دانشگاه Carnegie Mellon موفق شدند سیستمهای زبان بزرگ را به سیستم پردازش شیمیایی مصنوعی آموزش دهند و سپس با دستور ساخت گاز کلرین و پیداکردن ترکیبی مناسب، آزمایشگاهی ابری (سرویسی آنلاین که شیمیدانان میتوانند آزمایشهای شیمی فیزیکی را از راه دور انجام دهند) را ایجاد کنند. بهنظر میرسید این سیستم بتواند گاز VX یا سارین و متامفتامین را تولید کند و تنها دلیل صرفنظر از آن، کنترلهای ایمنی داخلی بوده است.
درحالحاضر، بسیاری از اطلاعات موردنیاز برای تولید سلاحهای شیمیایی یا بیولوژیکی برای عموم و مدلسازان دردسترس قرار دارند؛ اما هر شخصی به تخصصهای خاص برای درک و اعمال این اطلاعات نیاز دارد. تفاوت بین دنیایی که افراد عادی با دسترسی به مدلهای زبان بزرگ میتوانند سلاحهای زیستی خطرناکی را ساختاریافته کنند و دنیایی که در آن فقط متخصصها میتوانند این کار را انجام دهند، شبیه تفاوت بین کشورهایی مانند آمریکا و انگلستان است که در یکی اسلحههای نیمهخودکار بزرگ بهطور گسترده دردسترس هستند و در دیگری دسترسی به چنین اسلحههایی غیرممکن است.
بااینحال، اگر کنترل کافی اِعمال نشود، دسترسی گسترده به این سیستمهای هوش مصنوعی مانند دسترسی گسترده به اسلحههای شخصی میتواند به ایجاد دنیایی منتهی شود که افراد عادی با دسترسی به سیستمهای زبان بزرگ، میتوانند سلاحهای بیولوژیکی خطرناکی را تولید و با استفاده از آنها آسیب بزرگی به جامعه وارد کنند.
حال این سؤال پیش میآید که این آسیب با آسیب ناشی از سلاحهای هستهای برابری میکند؟ احتمالاً نه. برای چنین سطحی از آسیب، به سناریوهای بیشتری برای تسخیر هوش مصنوعی نیاز است که بیشتر برپایهی حدسوگمان هستند.
درواقع، به نسخهای بسیار قدرتمندتر از هوش مصنوعی امروزی نیاز خواهیم داشت. بااینهمه، آسیبهای ناشی از سوگیری الگوریتمی و سلاحهای زیستی، بیش از نگرانیهای فعلی محسوساند و توجه بیشتری را میطلبند.
پیشرفت علمی بسیار سریع
در دسامبر ۱۹۳۸، شیمیدانان، اتو هان و فریتز استراسمن، کشف کردند که اگر اورانیوم رادیواکتیو را با نوترونها بمباران کنند، عنصری کوچکتر از اورانیوم را بهدست خواهند آورد که شبیه به باریم بهنظر میرسید.
این مشاهده بسیار مبهم بود؛ زیرا تا آن زمان عناصر رادیواکتیو فقط برای انتشار ذرات کوچک و تبدیل به عناصر کمی کوچکتر شناخته میشدند؛ اما در شب کریسمس، همکاران آنها، لیز مایتنر و اتو فریش، توضیحی ارائه دادند مبنی بر اینکه نوترونها اتمهای اورانیوم را شکافتهاند و باریم جامد و گاز کریپتون ایجاد کردهاند؛ فرایندی که فریش آن را شکافتن نامید.
مدلهای پیشرفته یادگیری عمیق با سرعتی مشابه شکافت هستهای در حال بهبود هستند
در ۱۶ ژوئیه ۱۹۴۵، پس از میلیاردها دلار سرمایهگذاری و معادل ۶۷ میلیون ساعت کار کارگران و دانشمندان ازجمله فریش، نیروی نظامی آمریکا دستگاه ترینیتی (اولین سلاح هستهای) را با استفاده از فرایندی منفجر کرد که فریش و مایتنر آن را کمتر از هفت سال پیش فقط بهعنوان نظریه مطرح کرده بودند.
بهطور کلی، تعداد کمی از زمینههای علمی کشف نظری را به تکنولوژی عملی بسیار مهمی تبدیل کردهاند؛ اما هوش مصنوعی میتواند یکی از اینها باشد. حوزهی هوش مصنوعی در دههی ۱۹۵۰ متولد شد؛ اما تکنیکهای «یادگیری عمیق» در هوش مصنوعی که اطلاعات را ازطریق چند لایه «نورون» بهصورت «شبکههای عصبی» مصنوعی پردازش میکنند، حدوداً سال ۲۰۰۹ آغاز شد.
پسازآن، بلافاصله مدلهای یادگیری عمیق در مسابقاتی پیروز شدند که توانایی آنها در طبقهبندی تصاویر را آزمایش میکردند. همین تکنیکها قهرمانان جهان را در بازیهای Go و StarCraft میتوانستند شکست دهند و مدلهایی مانند GPT-4 یا Stable Diffusion را تولید کنند که خروجیهای متنی و تصویری بینظیری را ارائه میدهند.
پیشرفت در یادگیری عمیق تقریباً تصاعدی بهنظر میرسد؛ زیرا منابع محاسباتی و دادههای استفادهشده در آن بهصورت پایدار در حال رشد هستند. همهی اینها را گفتیم که درنهایت به این نکته برسیم تقریباً به همان اندازه که شکافت هستهای با سرعت شگرفی توسعه یافت، بهنظر میرسد مدلهای پیشرفته یادگیری عمیق و قابلیتهای آنها با سرعتی مشابه در حال بهبود هستند.
هوش مصنوعی و بمب اتم؛ تفاوت در چیست؟
طبیعتاً در زندگی روزمرهمان از سلاحهای هستهای استفاده نمیکنیم و بسیاری از ما هرگز کارکردن با آن را تجربه نخواهیم کرد. شکافت هستهای ازطریق انرژی هستهای که حدود ۴ درصد از انرژی جهان را تأمین میکند، زندگی روزمره ما را تحتتأثیر قرار میدهد؛ اما بهدلیل استفادهی محدود آن، نمیتوان گفت که این فناوری زندگی ما را تحتتأثیر قرار داده است.
افزونبراین، دقیقاً نمیدانیم که هوش مصنوعی چگونه بر جهان تأثیر میگذارد و کسی نمیتواند با جزئیات بگوید که چه اتفاقی در شرف وقوع است. هوش مصنوعی را میتوانیم فناوری همهمنظوره در نظر بگیریم؛ یعنی چیزی مانند برق یا تلگراف یا اینترنت که بهطور گسترده نحوهی عملکرد کسبوکارها در مناطق مختلف را تغییر میدهد و با نوآوریهایی که بخش خاصی را تحتتأثیر قرار میدهند، کاملاً متفاوت است.
هوش مصنوعی فرسایش تدریجی مهمترین مهارتهای انسان را در پی دارد
استفاده از هوش مصنوعی برای تولید سریع متن بهواسطهی مدلهای زبانی یا بهبود خدماتی مثل سیری و الکسا بهطوریکه درست مانند دستیار شخصی عمل و هوشمندانه برنامهریزی کنند، در بسیاری از مشاغل کاربردی خواهد بود.
مککینزی بهتازگی پیشبینی کرده است که تأثیر هوش مصنوعی مولد بر بهرهوری میتواند نهایتاً ۴.۴ تریلیون دلار به اقتصاد جهانی اضافه کند؛ بنابراین، اینکه فناوری بهطور گسترده برای طیف وسیعی از مشاغل و بخشها مهم خواهد بود، نکتهی مهمی است.
درمجموع، انرژی هستهای فناوری بسیار مفیدی است و ممنوعکردن شکافت هستهای طبیعتاً ایدهی بدی خواهد بود. دربارهی هوش مصنوعی باید به این نکته توجه کرد که حتی با درنظرگرفتن تهدیدهای عمدهای که ایجاد میکند، چقدر میتواند مفید واقع شود؛ بنابراین، ممنوعیت آن بهوضوح اجرایی نیست.
اغلب کشورها ازجمله بسیاری از کشورهای ثروتمندی که بهراحتی منابع لازم برای ساخت بمب اتمی را دارند، از توسعهی بمب اتمی انصراف دادهاند؛ زیرا ساخت بمب اتمی اساساً سخت و هزینهبر خواهد بود.
مقایسهی هوش مصنوعی و بمب اتم، قیاسی بیهوده است
بهگزارش کمپین بینالمللی لغو سلاحهای هستهای، کرهشمالی فقط در سال ۲۰۲۲ چیزی نزدیک به ۵۸۹ میلیون دلار برای برنامهی هستهای خود هزینه کرده است. این عدد در دهههای آینده به میلیاردها دلار خواهد رسید. بسیاری از کشورها نباید منابعشان را برای توسعهی سلاحی صرف کند که احتمالاً هرگز استفاده نخواهند کرد. بیشتر گروههای تروریستی نیز منابع لازم برای ساخت چنین سلاحی را ندارند.
درمقابل، آموزش هوش مصنوعی نیز سخت و پرهزینه است؛ اما درمقایسهبا بمب اتمی، بعد از ساخت مدلی خاص بهدست شرکتها یا دولت، آسانتر امکان پیگیری و کپیبرداری دارد.
بهعنوان مثال، مدل زبان Vicuna یکی از مدلهای اخیر محسوب میشود که براساس مدل LLaMA (منتشرشدهی متا) ساخته شده است و جرئیات آن نیز دردسترس عموم قرار دارد. Vicuna با استفاده از حدود ۷۰,۰۰۰ مکالمهی کاربران واقعی با ChatGPT آموزش داده شده و با استفاده از «تنظیم دقیق» LLaMA، مدلی دقیقتر و مفیدتر تولید کرده است.
تیمی از علاقهمندان که تلاش میکنند سلاح هستهای بسازند، کار بسیار آسانتری درمقایسهبا پروژهی منهتن خواهند داشت؛ زیرا میتوانند از تمامی چیزهایی که پروژهی منهتن و هر پروژهی هستهای دیگری یاد گرفتهاند، بهره ببرند. این در حالی است که افرادی با حداقل منابع میتوانند سیستمهای هوش مصنوعی پیشرفته را بسازند و آنها را سفارشی کنند.
باتوجهبه این مسائل، میتوان اینطور نتیجهگیری کرد که قیاسهای AI=nukes احتمالاً بیهوده هستند. بهترین راه برای مواجهه با فناوری جدید و قدرتمند و خطرناک، همکاری بینالمللی گسترده است.
احتمال وقوع آخرالزمان هوش مصنوعی واقعا چقدر است؟
درواقع، خطری وجودی و ذاتی در استفاده از هوش مصنوعی برای نوع انسان وجود دارد؛ اما این خطر بیشتر در مفهوم فلسفی طبقهبندی میشود و نه آخرالزمانی. هوش مصنوعی در شکل فعلیاش میتواند دیدگاه افراد را دربارهی خود تغییر دهد یا تواناییها و تجربیاتی را تنزل دهد که مردم برای انسانبودن ضروری میدانند.
بهعنوان مثال، چتجیپیتی را در نظر بگیرید. این فناوری در حال حذف نقش نوشتن تکالیف در آموزش عالی است و اگر این امر محقق شود، مربیان یکی از ابزارهای اصلی خود برای آموزش به دانشآموزان را از دست خواهند داد.
هوش مصنوعی دنیا را نابود نخواهد کرد؛ اما پذیرش آن در انواع زمینهها، فرسایش تدریجی برخی از مهارتهای مهم انسان را در پی دارد. درحالحاضر، نگرانی اصلی این است که هرگز نمیدانیم هوش عمومی مصنوعی (AGI) چه زمانی ظاهر میشود. چهبسا AGI بتواند هوش خود را از انسانها پنهان کند و توقف آن برای انسانها دشوار و غیرممکن شود.
بااینحال، این بدانمعنا نیست که توسعهی هوش مصنوعی باید متوقف شود. درست همانطورکه تیم اوپنهایمر آزمایش ترینیتی را متوقف نکرد، محققان هوش مصنوعی باید به ایجاد نرمافزار هوش مصنوعی بهتر ادامه دهند.