چت جیپیتی در مدت کوتاهی از ظهورش، دنیا را درنوردیده و بیم و امیدهای زیادی را در میان مردم برانگیخته است. این مدل زبانی مبتنی بر هوش مصنوعی بیشک یکی از انقلابیترین کاربردهای تکنولوژی در سالهای اخیر بوده است. بسیاری از کارشناسان معتقدند در کنار مزایا و کاربردهای متنوع چت جیپیتی، نباید از خطرات و مشکلات احتمالی آن غافل شد. حالا حتی مدیرعامل شرکت OpenAI هم که توسعهدهنده چت جیپیتی است، درباره مخاطرات آن هشدار داده است. «سم آلتمن» معتقد است که این تکنولوژی همانطور که باعث تغییر شکل جامعه خواهد شد، خطرات جدی هم به همراه خواهد داشت.
آلتمن ۳۷ ساله تاکید میکند که نهادها و سازمانهای ناظر و جامعه باید با این تکنولوژی به خوبی درگیر شوند تا بتوانند از عواقب منفی بالقوه آن برای بشریت جلوگیری کنند. او در مصاحبهای با شبکه خبری ABC News با اشاره به اینکه چت جیپیتی میتواند مهمترین تکنولوژی برای ارتقای کیفیت زندگی افراد باشد، گفت: «در اینجا باید محتاط باشیم. فکر میکنم مردم باید خوشحال باشند که ما کمی از این تکنولوژی ترسیدهایم.» آلتمن با تاکید بر اینکه او بهطور مرتب با مقامات دولتی در ارتباط است، در ادامه گفت: «من بهطور مشخص نگران آن هستم که این الگوهای زبانی بتوانند برای دروغپراکنی و تولید اطلاعات نادرست در مقیاس وسیع مورد استفاده قرار بگیرند. حالا همانطور که این الگوهای زبانی مبتنی بر هوش مصنوعی در کدنویسی کامپیوتری بهتر میشوند، میتوانند برای حملات سایبری خطرناک هم مورد استفاده قرار بگیرند.»
چت جیپیتی که تنها چند ماه پیش عرضه شد، در حال حاضر بهترین اپلیکیشن مصرفی تاریخ از نظر سرعت رشد به حساب میآید. این اپلیکیشن در طول همین چند ماه، به رکورد ۱۰۰میلیون کاربر فعال ماهانه دست پیدا کرده است. در مقابل، برای تیکتاک ۹ ماه و برای اینستاگرام حدود سه سال طول کشید تا به چنین رکوردی برسند. حالا چت جیپیتی در تستهای مختلف، امتیاز بالایی به دست آورده است و به شکلی ماهرانه میتواند به اغلب زبانهای برنامهنویسی، کد کامپیوتری بنویسد. GPT-۴ یک قدم به سمت هدف OpenAI برای ایجاد هوش مصنوعی عمومی نزدیکتر است. از همان اواخر نوامبر که چتجیپیتی عرضه شد، خیلیها در انتظار انتشار GPT-۴ بودند و بسیاری از کاربرانی که با نسخه قبلی این برنامه کار کرده بودند، از قابلیتهای خیرهکننده این برنامه هوش مصنوعی شگفتزده شدهاند.
جیپیتی-۴ جدیدترین نقطه عطف در تلاش OpenAI برای پیشرفت در یادگیری عمیق است، پاسخهای متنی دقیقتری ارائه خواهد داد و دادههای ورودی تصویری و متنی این فناوری را به شکل گستردهای پیش میبرد. شرکت OpenAI همچنین اعلام کرد که نسخه جدید این برنامه در مقایسه با نسخه قبلی، درباره خطای عملکردی یا دروغ و توهین یا اصطلاحا «توهم»، به مراتب گزارشهای کمتری دریافت میکند. به گفته OpenAI، برای ساخت و توسعه جیپیتی-۴ شش ماه زمان صرف شده است تا ایمنتر و هماهنگتر شود. جیپیتی-۴ تا ۸۲ درصد کمتر به درخواستهای محتوای غیرمجاز پاسخ میدهد و احتمال پاسخهای واقعی آن تا ۴۰ درصد بیشتر است. با این حال، سم آلتمن درباره این نسخه جدید گفته که با وجود پیشبینیها، جیپیتی-۴ هنوز ناقص و محدود است.
سم آلتمن در حالی که از موفقیت محصول شرکتش رضایت دارد، اما میگوید که نگرانی از خطرات احتمالی این زبان هوش مصنوعی بارها خواب شبانه را از چشمهای او ربوده است. یکی از ترسهای عملی- تخیلی رایجی که آلتمن به آن اشاره نکرد این است که الگوهای هوش مصنوعی، نیازی به انسانها ندارند، خودشان به تنهایی تصمیم میگیرند و نقشه حاکمیت بر جهان را میکشند. آلتمن در این مورد میگوید: «چت جیپیتی منتظر کسی است که یک ورودی به آن بدهد. این ابزاری است که تا حد زیادی تحت کنترل انسان قرار میگیرد.» آلتمن با اشاره به اینکه نگران نوع کنترلی است که انسانها میتوانند روی آن داشته باشند، اضافه میکند: «افراد دیگری هم خواهند بود که هیچ محدودیت امنیتی برای آن نمیگذارند. فکر میکنم جامعه زمان محدودی برای محاسبه چگونگی واکنش نشان دادن به آن، نظارت بر آن و مدیریت آن در اختیار دارد.»
ظاهرا این نگرانی چندان هم بیراه نیست؛ تا جایی که ولادیمیر پوتین، رئیسجمهور روسیه، در زمان آغاز سال تحصیلی سال ۲۰۱۷ به دانشجویان گفته بود که هر کس بتواند رقابت در عرصه هوش مصنوعی را مدیریت کند، احتمالا سکان رهبری جهان را هم به دست خواهد گرفت. آلتمن با اشاره به این نقلقول گفت: «این قطعا اظهارنظر ترسناکی است. در عوض امیدوارم به صورت مداوم سیستمهای قدرتمندتری را توسعه بدهیم که بتوانیم در موارد مختلف از آنها بهره ببریم و آنها را با زندگی روزمره و اقتصاد ادغام کنیم تا به ابزاری برای رسیدن افراد به اهدافشان تبدیل بشود.»
نگرانی از اطلاعات نادرست
طبق اعلام شرکت OpenAI، نسخه جدید GPT-۴ بهبودهای زیادی نسبت به نسخه قبلی دارد که از آن جمله میتوان به توانایی درک تصاویر به عنوان یک ورودی، اشاره کرد. آزمایشهای اولیه نشان میدهند که این نسخه جدید میتواند توضیح بدهد که در یخچال خانه هر فرد چه چیزهایی وجود دارد، پازل و معما حل کند و حتی معنی الگوهای رفتاری افراد در اینترنت را به وضوح توضیح بدهد. البته این قابلیت در حال حاضر تنها در اختیار گروه کوچکی از کاربران قرار دارد. با این همه، به عقیده آلتمن، موضوع مهمی که درباره الگوهای زبانی هوش مصنوعی مانند چت جیپیتی وجود دارد، اطلاعات نادرست است. او معتقد است که این برنامه میتواند اطلاعات نادرستی به افراد بدهد. آلتمن در این مورد میگوید: «آنچه تلاش میکنم درباره آن به مردم هشدار بدهم، چیزی است که به آن مشکل توهمات میگوییم. این الگوی زبانی، مسائل را با چنان اطمینانی مطرح میکند که انگار حقیقت غیر قابل انکار هستند.»
OpenAI اعلام کرده است که این زبان هوش مصنوعی بیشتر از استدلال استقرایی بهره میگیرد تا به حافظه سپردن. در همین راستا، «میرا موراتی» مدیر ارشد تکنولوژی این شرکت به ABC News میگوید: «یکی از بزرگترین تفاوتها میان نسخه قبلی با GPT-۴ همین توانایی استدلال بهتر آن است. هدف آن است که واژه بعدی پیشبینی شود و با این کار شاهد درک بیشتر این زبان خواهیم بود. ما میخواهیم این الگوهای زبانی، جهان را مثل ما ببینند و درک کنند.» آلتمن در تکمیل این موضوع میگوید: «روش درست تفکر این الگوهای زبانی، داشتن یک موتور استدلال است، نه دیتابیسی از حقایق و دادهها. ما میخواهیم که آنها توانایی استدلال را به دست بیاورند و امیدواریم در طول زمان به این توانایی دست بیابند.»
احتیاطهایی در برابر بازیگران بد
نوع اطلاعاتی هم که چت جیپیتی و دیگر الگوهای زبانی هوش مصنوعی در اختیار دارند، محل نگرانی هستند. برای مثال، اینکه چت جیپیتی بتواند به یک کاربر روش ساخت یک بمب را آموزش بدهد یا خیر. جواب خیر است، به خاطر معیارهای ایمنی که در کدنویسی چت جیپیتی در نظر گرفته شده. آلتمن در این مورد به ABC News میگوید: «موضوعی که نگران آن هستم، آن است که قرار نیست ما تنها خالقان این تکنولوژی باشیم. افراد دیگری هم خواهند بود که محدودیتهای امنیتی مد نظر خودشان را در این تکنولوژی میگنجانند.»
از نظر مدیرعامل شرکت OpenAI، راهکارها و نکات ایمنی کمی برای تمام این خطرات بالقوه وجود دارند. یکی از آنها این است که بگذاریم در همین روزهای اول، جامعه با چت جیپیتی درگیر شود و مردم روش کار با این تکنولوژی را بیاموزند. مدیر ارشد تکنولوژی این شرکت هم معتقد است که با استفاده بیشتر مردم از چت جیپیتی، شناسایی موارد خطرناک و مشکلات بالقوه آن سادهتر خواهد شد. میرا موراتی در این مورد میگوید: «شناسایی موارد کاربرد چت جیپیتی، مشکلات و معایب آن، به ما برای بهبود سریعتر در نسخههای بعدی کمک میکند. به همین دلیل استفاده بیشتر مردم از این تکنولوژی برای ما اهمیت زیادی دارد.»
آلتمن هم با این رویکرد موافق است و میگوید: «مردم به زمان بیشتری برای بهروز شدن، تعامل و استفاده کردن از این تکنولوژی نیاز دارند تا بتوانند نقاط تاریک آن را شناسایی کرده و بهرهبرداری مفیدتری از آن بکنند. ما با متخصصان امنیتی و سیاستگذاری مختلفی صحبت کردهایم، سیستمها را برای شناسایی موارد مشکل بررسی کرده و میدانیم که این تکنولوژی هنوز کامل نیست، اما همچنان به آموزش و یاد گرفتن دراین فرآیند اعتقاد داریم.»
هوش مصنوعی جایگزین مشاغل میشود؟
در میان دغدغههای مختلفی که درباره قابلیتهای خطرناک این تکنولوژی وجود دارد، جایگزین شدن آن با مشاغل جایگاه خاصی دارد. آلتمن معتقد است که احتمالا بعضی مشاغل در آینده نزدیک از بین میروند و بیشتر نگرانیها مربوط به سرعت این اتفاق است. او در این مورد میگوید: «فکر میکنم بیش از دو نسل از بشریت در برابر تغییرات تکنولوژیک عمده مقاومت کردهاند. اما بالاخره این اتفاق در کمتر از ۱۰ سال دیگر رخ خواهد داد.» با این حال مدیرعامل OpenAI افراد را تشویق میکند تا چت جیپیتی را بیشتر به عنوان یک ابزار ببینند، نه یک جایگزین. او تاکید میکند: «خلاقیت انسان نامحدود است و ما میتوانیم مشاغل تازهای پیدا کنیم. کاربردهای چت جیپیتی به عنوان یک ابزار، مخاطرات خاص خودشان را هم دارند.»