اگر روزی هوش مصنوعی دارای قدرت درک و احساس شود چگونه میتوان به این آگاهی پی برد؟ گروهی از دانشمندان معیارهایی را برای حل این مسئله پیشنهاد دادهاند.
بلیک لموین، مهندس گوگل در سال ۲۰۲۱ به تیتر اخبار تبدیل شد. بر اساس ادعای لموین، LaMDA چتباتی که در مرحلهی تست بود، قوهی ادراک داشت و همین ادعا به اخراج او منجر شد. سیستمهای هوش مصنوعی (AI) بهویژه مدلهای زبانی عظیمی مثل LaMDA و چتجیپیتی هوشیار به نظر میرسند، اما در واقعیت بر اساس حجم زیادی از دادههای متنی برای تقلید از پاسخهای انسانی آموزش دیدهاند؛ بنابراین چگونه میتوانیم بفهمیم هوش مصنوعی دارای قدرت درک و آگاهی نیست؟
به گزارش ساینس، گروهی شامل ۱۹ دانشمند کامپیوتر، عصبشناس و فیلسوف به روشی برای تشخیص آگاهی هوش مصنوعی رسیدهاند. این روش یک تست قطعی و واحد نیست، بلکه چکلیستی طولانی از مشخصات است که درمجموع نشان میدهد یک هوش مصنوعی دارای آگاهی است یا خیر. پژوهشگرها در مقالهای ۱۲ صفحهای، بر اساس نظریههای آگاهی انسان به ۱۴ معیار رسیدند و سپس این معیارها را بر معماریهای موجود هوش مصنوعی بهویژه مدل سازندهی چتجیپیتی اعمال کردند.
پژوهشگرها به این نتیجه رسیدند که هیچکدام از هوشهای مصنوعی موجود، دارای آگاهی نیستند، اما پژوهش آنها در واقع چارچوبی برای ارزیابی هوشهای مصنوعی انسانمانند ارائه میدهد. تا همین چند سال پیش، آگاهی ماشین، موضوع فیلمهای علمی تخیلی مثل Ex Machina (فراماشین) بود؛ اما همهچیز با اخراج لموین تغییر کرد. اگر هوشهای مصنوعی بتوانند احساس آگاهی را منتقل کنند، دانشمندان و فیلسوفها باید به سرعت دست به کار شوند.
با اینحال چگونه میتوان به وجود آگاهی در هوش مصنوعی پی برد؟ اولین وظیفه، تعریف آگاهی است؛ کلمهای پر از تلههای ذهنی. پژوهشگرها تصمیم گرفتند اصطلاحی به نام «آگاهی محسوس» یا کیفیت ذهنی یک تجربه را بپذیرند که به بیان سادهتر مانند دیدن رنگ قرمز یا احساس درد است.
آگاهی هوش مصنوعی را نمیتوان به شیوه آگاهی انسان آزمایش کرد
پرسشی که مطرح میشود این است که چگونه میتوان آگاهی محسوس یک الگوریتم را وارسی کرد؟ الگوریتمها برخلاف مغز انسان هیچ علامتی از عملکرد کشفشدنی داخلی در موجنگاری مغزی یا MRI نشان نمیدهند. به همین دلیل نیاز به روش دیگری است. پژوهشگرها در ابتدا نظریههای فعلی دربارهی خودآگاهی انسان را برای رسیدن به توصیفگرهای اصلی وضعیت آگاهی بررسی کردند و سپس در معماری هوش مصنوعی به بررسی آنها پرداختند.
در نتیجه، یک نظریه باید مبتنی بر علوم عصبی و شواهد تجربی مثل اسکنهای دادههای مغزی باشد. پژوهشگرها با این دادهها و ترفندهای ادراکی، آگاهی را دستکاری میکنند؛ بنابراین این احتمال وجود دارد که آگاهی صرفنظر از محاسبات اجراشده توسط نورونهای زیستی یا تراشههای سیلیکونی، به وجود بیاید.
ممکن است روزی تراشههای سیلیکونی به آگاهی برسند
پژوهشگرها در نهایت به شش نظریه رسیدند. یکی از نظریهها موسوم به پردازش بازگشتی نشان میدهد که انتقال اطلاعات از طریق حلقههای بازخورد یکی از عوامل کلیدی آگاهی است. نظریهی دیگر با عنوان فضای کاری عصبی سراسری مدعی است آگاهی زمانی به وجود میآید که جریانهای مستقل اطلاعاتی با عبور از مسیری باریک در محیطی کاری مشابه کلیپبورد کامپیوتر ترکیب شوند.
نظریهی دیگری موسوم به مرتبه بالا نشان میدهد که آگاهی شامل فرآیند بازنمایی و تفسیر دادههای اولیه است که از حسها دریافت میشوند. نظریههای دیگر بر اهمیت مکانیزمهای لازم برای کنترل توجه و نیاز دریافت بازخورد از دنیای بیرون تأکید میکنند. پژوهشگرها بر اساس شش نظریهی موجود، ۱۴ شاخص را برای وضعیت آگاهی استخراج کردند.
بر اساس استدلال پژوهشگرها، هرچقدر معماری هوش مصنوعی منطبق با تعداد بیشتری از شاخصها باشد، احتمال داشتن آگاهی بیشتر میشود. اریک الموزنینو، کارشناس یادگیری ماشین فهرست یادشده را برای هوشهای مصنوعی متعدد با معماریهای متفاوت مثل سیستم مولد تصویر Dall-E2 به کار برد. بسیاری از معیارها با شاخصهای نظریهی پردازش بازگشتی منطبق بودند. نوعی مدل زبانی بزرگ که اساس ChatGPT هم به شمار میرود با شاخصهای نظریهی شبکهی کاری سراسری سازگار بود.
با توجه به این مسئله که هیچکدام از هوشهای مصنوعی از تمام معیارها برخوردار نیستند، هیچکدام را نمیتوان کاندیدی قوی برای آگاهی درنظر گرفت. پژوهشگرها به دنبال طراحی آزمایش آگاهی گستردهتری هستند که بتوان روی ریزاندامها، حیوانات و نوزادان تازهمتولدشده اعمال کرد. آنها امیدوار هستند در ماههای آینده این نظریه را منتشر کنند. مشکل چنین پروژههایی این است که نظریههای فعلی مبتنی بر درک ما از آگاهی انسان هستند. با اینحال آگاهی حتی در پستاندارهای دیگر میتواند شکلهای متفاوتی داشته باشد.