توسعه ابزار هوش مصنوعی جدید طی ماههای اخیر، سبب تشدید نگرانیها در مورد تهدیدات بالقوه این فناوری نوظهور در میان قانونگذاران سراسر جهان شده است.
مدتی است که آوازه هوش مصنوعی و پیشرفتهایش در سراسر جهان پیچیده و یکی از معروفترین آنها که بهمحض برخورد با کلمه هوش مصنوعی در ذهن تداعی میشود چت جی پی تی است؛ اما اکثر اسمهایی که با عنوان هوش مصنوعی به گوش ما میرسند، در واقع نرمافزارهای مبتنی بر هوش مصنوعی هستند.
«ChatGPT» و «Bard» جزو گروه چتباتها هستند و «Midjourney» و «Dall.E» از جمله مدلهای یادگیری ماشینی هستند که برای تبدیل متن به تصویر دیجیتال ساخته شدهاند.
با گذشت مدتی کوتاه از عرضه عمومی «ChatGPT» و رشد رکورد شکن تعداد کاربران این پلتفرم، مسئله تنظیمگری فناوریهای نوظهور همچون هوش مصنوعی، بار دیگر به اولویت اصلی فعالان این حوزه و دولتهای سراسر جهان تبدیل شده است. ابراز نگرانی از مضرات این فناوری تا آنجا پیش رفت که جفری هینتون یکی از پیش کسوتها و پدرخوانده هوش مصنوعی به تازگی و پس از آنکه متوجه شد احتمالاً رایانهها از انسانها باهوشتر میشوند، از شرکت گوگل استعفا داد تا آزادانه درباره خطرات این فناوری صحبت کند.
وی که با ابراز نگرانی درباره خطرات هوش مصنوعی از شرکت گوگل استعفا داده است، گفت: اکنون از کار خود در این رشته پشیمان است.
او در مصاحبهای با نیویورک تایمز درباره ظرفیت این فناوری برای ایجاد تصاویر و متون جعلی اظهار نگرانی کرد و گفت: این فناوری و ابزارهایش دنیایی را به وجود میآورند که در آنها انسانها نمیتوانند واقعیت را تشخیص دهند.
قیام کشورها علیه فناوریهای نوظهور هوش مصنوعی
با همه اینها به عقیده بسیاری از کارشناسان، هوش مصنوعی فناوری آیندهساز خواهد بود و درک ما از زندگی را تا حدود زیادی تغییر خواهد داد. از همین روی با روی کار آمدن و شهرت روز افزون چت جی پی تی، سیاستمداران با عزمی راسخ در پی مهار و کنترل آن برآمدهاند.
از سوی دیگر، غولهای فناوری مانند مایکروسافت، گوگل و آمازون نیز در حال رقابت تنگاتنگ برای بهرهبرداری حداکثری از مواهب توسعه این فناوری نوظهور هستند و همین امر، مسئله لزوم تنظیمگری این حوزه را بیش از پیش برجسته ساخته است. زیرا در صورت عدم کنترل نهادهای قانونگذار و تنظیمگر بر قوانین رقابت، هوش مصنوعی مولد میتواند سبب کسب مزیت و قدرت نامتعارف از سویشرکتهای بزرگ فناوری شود و این بنگاههای اقتصادی را بر جوامع بشری مسلط کند.
چین؛ از مقابله رویاروی تا چت بات ملی
دولت چین، در راستای مقابله با تهدیدات هوش مصنوعی دو راه حل اساسی اتخاذ کرده است. این کشور در ماه فوریه اعلام کرد که پکن از شرکتهای پیشرو در ساخت مدلهای هوش مصنوعی که میتوانند «Chat GPT» را به چالش بکشند، حمایت خواهد کرد. در ماه آوریل خبرگزاری شینهوا یک بیانیه دولتی بر مبنای نشست فصلی حزب کمونیست منتشر کرد. این بیانیه تأکید میکند که چین باید توجه شایانی به توسعه هوش مصنوعی و خلاقیت در این حوزه و مقابله با خطرات پیشبینی شده آن داشته باشد. به عقیده برخی کارشناسان این اقدام چین علاوه بر اینکه نشاندهنده اولویت چین در تبدیلشدن به قدرت اول در حوزه فناوری است، مبین اهمیت «ChatGPT» و لزوم مقابله با قدرت انحصاری این پلتفرم است.
دوم اینکه دولت چین علاوه بر اینکه تلاش دارد تا چتبات ملی خود را داشته باشد، تلاش برای تنظیمگری هوش مصنوعی مولد را نیز در دستور کار خود قرار داده است. تنظیمکننده فضای سایبری چین (CAC) در این راستا از پیشنویس اقداماتی برای تنظیمگری خدمات هوش مصنوعی رونمایی کرد و در آن از شرکتها خواست که ارزیابیهای امنیتی خود را قبل از ارائه خدمات به مقامات اعلام کنند. اصول دولت چین در تنظیمگری هوش مصنوعی، نظارت بر محتوا، حمایت از حق مالکیت معنوی، مقابله با اطلاعات نادرست، حفظ حریم شخصی و محافظت از دادهها و رفع نابرابری است.
اولین گام مهم اتحادیه اروپا
اتحادیه اروپا و نهادهای قانونگذار آن در بحبوحه محبوبیت و شهرت «ChatGPT» و سایر چتباتها و هوش مصنوعیهای مولد در پی آسیبشناسی و مقابله با خطرات احتمالی این فناوری جدید، بر آمدند. در ادامه مروری بر نظرات مختلف و اقدامات انجامشده خواهیم داشت.
برخی از قانونگذاران اروپا معتقدند میتوان از مقررات حفاظت از دادههای عمومی (GDPR)، جهت کنترل هوش مصنوعی و صاحبان آن استفاده کرد. با توجه به اینکه هوش مصنوعی از دادهها برای پاسخهای خود استفاده میکند «GDPR» با اصول حفاظت از دادههای خود، میتواند با هرگونه استفاده از دادههای کاربران و نقض حریم شخصی مقابله کند.
برخی دیگر از تنظیم گران مانند هلن دیکسون، عضو هیئت نهاد حفاظت از دادهها ایرلند، در جلسهای که در پی ممنوعیت موقت «ChatGPT» برگزار شد، معتقد بودند که عجله در تنظیمگری هوش مصنوعی مولد بدون درک و شناخت دقیق کارکرد و فرایند آن، مانع تنظیمگری مناسب و صحیح خواهد شد.
در نهایت هیئت حفاظت از دادههای اروپا، با متحد کردن ناظران ملی حفظ حریم خصوصی اروپا، در ماه آوریل اعلام کرد که کارگروهی مخصوص «ChatGPT» راهاندازی کرده است که این حرکت را میتوان اولین گام مهم قاره سبز در جهت تنظیم قوانین مشترک حفظ حریم خصوصی در حوزه هوش مصنوعی دانست؛ به عبارتی دیگر قانونگذاران اتحادیه اروپا همچنان در حال گفتگو، بحث و کارشناسی در مورد معرفی قانون هوش مصنوعی اتحادیه اروپا هستند تا حکمرانی حوزه هوش مصنوعی را بااقتدار پیش ببرد. قانونگذاران پیشنهاد کردهاند که ابزارهای گوناگون هوش مصنوعی را بر اساس میزان ریسک و خطرپذیری، از کم تا غیرقابلقبول درجهبندی کنند.
بنا به گفته سخنگوی وزیر صنعت و علوم استرالیا از نهاد اصلی مشاوره علمی کشور درباره نحوه برخورد باهوش مصنوعی درخواست مشورت کرده و در حال تحلیل و بررسی گامهای بعدی خود است.
ایالات متحده آمریکا؛ تشکیل کارگروه مقابله با هوش مصنوعی
در راستای جذب میلیونی کاربران به سمت «Chat GPT» و تلاش کشورها جهت تنظیمگری آن، کاخ سفید در ماه مارس اعلام کرد که آمادگی شنیدن هر گونه پیشنهادی مبنی بر نحوه برخورد با «Chat GPT» و روش مسئولیتپذیر و پاسخگو نگهداشتن این فناوری جدید را دارد.
کمی قبلتر از آن در ماه می جو بایدن، رئیسجمهور ایالات متحده طی درخواستی بر بررسی پیامدهای ناشی از توسعه هوش مصنوعی تأکید کرد و شناخت و مقابله با خطرات آن را برای جامعه، امنیت ملی و اقتصاد ضروری دانست و همچنین افزود: «از نظر من، شرکتهای فناوری مسئولیت دارند که پیش از عرضه عمومی محصولات خود، از ایمنی آنها اطمینان حاصل کنند.» او از اعضای کنگره خواست که یک قانون حریم خصوصی تصویب کنند. چنین قانونی شامل مواردی مانند محدودیت شرکتها در جمعآوری دادههای شخصی، ممنوعیت تبلیغات برای جامعه هدف کودکان و منع انتشار اطلاعات نادرست و… خواهد بود.
طی آخرین اخبار در آوریل، مایکا بنت، سناتور آمریکایی، لایحهای ارائه کرده است که بر اساس آن کارگروهی برای بررسی سیاستهای ایالات متحده در زمینه هوش مصنوعی و شناسایی راههای مناسب مقابله با هر گونه نقض حریم خصوصی و آزادیهای مدنی در آمریکا تشکیل شده و روندهای قانونی نحوه توسعه این فناوری مشخص خواهد شد.
وزیر امنیت میهن آمریکا نیز اعلام کرد کارگروه هوش مصنوعی همچنین شیوه استفاده از این فناوری برای انجام بهتر کارها مانند بررسی محمولههای ورودی به کشور برای ردیابی کالاهای غیرقانونی را مطالعه میکند.
وی همچنین خواستار استفاده از هوش مصنوعی جهت ایمن سازی شبکه توزیع برق و سیستمهای ذخیره آب شد. بیم آن میرود که هر دو این زیرساختها هدف دشمنان قرار گیرند.
مایورکاس اعلام کرد این فناوری به طور گستردهای چشم انداز تهدیدها را تغییر میدهد.
کارشناسان امنیتی در واشنگتن مدعی احتمال استفاده دشمنان خارجی از قابلیتهای هوش مصنوعی برای ضربهزدن به امنیت ملی ایالات متحده شدند.
وظیفه این کارگروه بر اساس لایحه منتشر شده، شناسایی نقاط ضعف در فرایند نظارت بر هوش مصنوعی و ارائه پیشنهادهایی برای بهبود و اصلاح رویهها خواهد بود. اعضای این کارگروه اعضای برخی از سازمانهای دولتی مانند: دفتر مدیریت و بودجه، نهاد ملی استاندارد و فناوری، دفتر سیاست دانش و فناوری و افسران آزادیهای مدنی و حریم خصوصی از وزارتخانههای دادگستری، امور خارجه، خزانهداری، دفاع و سایر دستگاههای اجرایی هستند.
بر اساس مفاد لایحه، تشکیل این کارگروه موقتی است و بعد از ۱۸ ماه، گزارش نهایی را ارائه کرده و سپس تعطیل میشود.
در پنجم ماه می جو بایدن، رئیسجمهور ایالات متحده آمریکا به دنبال لزوم تنظیمگری هوش مصنوعی در نشستی با حضور مدیران شرکتهای هوش مصنوعی از جمله مایکروسافت و گوگل بهوضوح اعلام کرد که شرکتها موظفاند ایمنی پلتفرمهایشان را قبل از توسعه آن تضمین کنند. محورهای اصلی این جلسه شامل لزوم شفافیت بیشتر شرکتها در مقابل سیاستگذاران، اهمیت ارزیابی این محصولات و نیاز به محافظت از آنان در مقابل حملات مخرب بود. همچنین در این جلسه به نگرانیهایی درباره هوش مصنوعی مانند نقض حریم خصوصی، تصمیمهای غلط در استخدام که منجر به ازبینرفتن مشاغل شود و ایفای نقش هوش مصنوعی بهعنوان ناشر اطلاعات نادرست اشاره شد.
بریتانیا؛ مسئولیت پذیر کردن شرکتها از طریق رویکردهای غیرسختگیرانه
دولتمردان بریتانیایی در ماه آپریل اعلام کردند هوش مصنوعی علاوه بر مزایایی که در رشد و پیشرفت بشر دارد ممکن است مشکلاتی را درباره حریم خصوصی، حقوق بشر یا ایمنی افراد ایجاد کند. آنها مدعی شدند که قوانین سختگیرانه و سرکوبگر را راهحل مناسبی نمیدانند و قصد دارند رویکردهای منعطفتر و بر اساس اصولی مانند ایمنی، شفافیت، انصاف و مسئولیتپذیری را در پیش گیرند.
کمی بعد استفان آلموند، مدیر اجرایی ریسکهای امنیت داده از دفتر کمیسری اطلاعات بریتانیا هوش مصنوعی مولد بخصوص «Chat GPT» متعلق به شرکت «OpenAI» را خطری بالقوه برای امنیت داده دانست و بر اهمیت چگونگی استفاده این فناوری از دادههای شخصی تأکید کرد. او در ادامه به لزوم متعهدشدن سازمانهایی که از هوش مصنوعی استفاده میکنند به حفاظت از دادههای شخصی اشاره کرد و پیامدهای اهمیتندادن هوش مصنوعی به حریم شخصی را بزرگ و سخت دانست.
سرانجام بریتانیا در ماه مارس اعلام کرد که قصد دارد بهجای ایجاد یک نهاد تنظیمگر جدید، مسئولیت مدیریت هوش مصنوعی را بین تنظیمکنندههای حقوق بشر، سلامت و ایمنی و رقابت تقسیم کنند.
ایتالیا؛ فیلترینگ و مشروط سازی
ایتالیا در ماه مارس، «ChatGPT» را موقتاً ممنوع اعلام کرد، زیرا مقامات تنظیمگر حفاظت از دادهها نگرانیهایی را در مورد نقض حریم خصوصی، نقض مقررات «GDPR» و کاربران زیر ۱۳ سال داشتند. همچنین سازمان دیدهبان ایتالیا در ۲۰ مارس گفت که هیچ مبنای قانونی برای توجیه «جمعآوری و ذخیره انبوه دادههای شخصی» بهمنظور «آموزش» الگوریتمهای زیربنایی عملکرد پلتفرم وجود ندارد.
ایتالیا از شرکت سازنده هوش مصنوعی جدید خواست ابزاری فراهم کند تا همه افرادی که دادههایشان در چت جی پی تی مورد استفاده است، بتوانند درخواست تصحیح یا حذف دادههای شخصی خود که بهطور نادرست توسط این سرویس ایجاد شدهاند را مطرح کنند. OpenAI همچنین باید به غیر کاربران اجازه دهد تا «به روشی ساده و در دسترس» با پردازش دادههای شخصی خود برای اجرای الگوریتمهای چت جی پی تی مخالفت کنند.
همچنین از این شرکت خواسته شده تا پایان سپتامبر یک سیستم تأیید سن را راه اندازی کند تا دسترسی کاربران زیر ۱۳ سال به چت جی پی تی ممنوع شود.
کمتر از یک ماه پس از اعمال ممنوعیتهایی برای ChatGPT به دلیل نگرانیهای مربوط به حریم خصوصی توسط ایتالیا، دولت این کشور در روز جمعه نسبت به رویکرد خود درباره چتبات OpenAI عقب نشینی کرد. تصمیم جدید ایتالیا پس از پاسخگویی این استارتاپ به نگرانیهایی که درباره حریم خصوصی و امنیت دادههای کاربران در پلتفرم هوش مصنوعی آنها مطرح شده بود، اتخاذ شده است.
آلمان و اقدامی مشابه ایتالیا
همچنین در روزهای اخیر ۴۲ انجمن و اتحادیه تجاری آلمانی که نماینده بیش از ۱۴۰ هزار مؤلف و بازیگر هستند از اتحادیه اروپا خواسته اند سریعتر پیش نویس قوانین هوش مصنوعی را فراهم کند. آنها به تهدید «چت جی پی تی» برای کپی رایت آثارشان اشاره کردند.
در این نامه به اهمیت نگرانیهای روزافزون درباره هوش مصنوعی مولد مانند چت جی پی تی که میتواند از انسانها تقلید کند و متن و تصویر بسازد، نیز پرداخته شده است.
در بخشی از این نامه آمده است: استفاده غیرمجاز از محتوای آموزشی محافظت شده، پردازش غیرشفاف آن و جایگزین کردن قابل پیش بینی منابع با محصول خروجی هوش مصنوعی مولد سوالاتی بنیادین درباره مسئولیت پذیری و پاداش ایجاد میکند که باید قبل از ایجاد آسیبهای جبران ناپذیر، به آنها پرداخته شود. هوش مصنوعی مولد باید در مرکز هر قانون مربوط به بازار هوش مصنوعی باشد.
از سوی دیگر به نظر میرسد آلمان در نظر دارد به دلیل نگرانی در مورد حریم خصوصی، استفاده از چت جیپیتی را ممنوع کند. به گزارش ایندیپندنت، اولریش کلبر، رئیس حفاظت از دادههای کشور آلمان، به روزنامه هندلسبلات (Handelsblatt) گفت: «به دنبال ممنوعیت چت جیپیتی در ایتالیا، ناظران آلمانی با همتایان ایتالیایی خود در ارتباط هستند و حالا این احتمال وجود دارد که چنین اقدامی در آلمان نیز صورت بگیرد.»
ژاپن؛ اجلاس G۷ و بیانیه پایانی با محوریت هوش مصنوعی
وزرای کشورهای عضو گروه ۷ معتقدند باید قوانینی مبتنی بر ریسک برای هوش مصنوعی به کار گیرند.
این در حالی است که قانونگذاران اروپایی سعی دارند هرچه سریعتر یک قانون مرتبط با ابزارهای نوظهوری مانند چت جی پی تی وضع کنند البته طبق بیانیه مشترک وزرای گروه ۷، قانون مذکور باید یک محیط باز و توانمند برای توسعه فناوریهای هوش مصنوعی را حفظ کند و مبتنی بر ارزشهای دموکراتیک باشد.
این بیانیه در پایان اجلاس ۲روزه گروه در ژاپن صادر شده است.
هر چند به اعتقاد وزرا ممکن است ابزارهای سیاستگذاری برای دستیابی به چشم اندازی یکسان و هدف ایجاد یک سیستم هوش مصنوعی ایمن بین کشورهای عضو این گروه متفاوت باشد، اما توافق مذکور نقطه عطفی در زمینه نظارت کشورهای پیشرفته بر هوش مصنوعی در بحبوحه اوج گیری نگرانیهای حریم خصوصی و ریسکهای امنیتی است.
مارگارت وستاگر کمیسر رقابت اتحادیه اروپا پیش از توافق در این باره گفت: نتیجه گیری اجلاس گروه ۷ نشان میدهد ما در زمینه قانونگذاری برای هوش مصنوعی تنها نیستیم.
در بخش دیگری از بیانیه وزرای این گروه آمده است: ما تصمیم داریم در آینده مذاکرات درباره هوش مصنوعی مولد را در اجلاسهای گروه ۷ ادامه دهیم. در این مذاکرات احتمالاً موضوعاتی مانند نظارت، چگونگی حفاظت از حقوق مالکیت معنوی از جمله کپی رایت، ترویج شفافیت، بررسی اطلاعات اشتباه (از جمله اطلاعاتی که توسط نیروهای خارجی دستکاری میشود) مورد بحث قرار میگیرد.
در این میان ژاپن که رئیس گروه ۷ در سال جاری است، روشی آسانگیرانه تر در خصوص توسعه دهندگان هوش مصنوعی در پیش گرفته و خواستار پشتیبانی عمومی و صنعتی از توسعه هوش مصنوعی شده است.
ژاپن امیدوار است تا گروه ۷ را به یک فرایند نظارتی انعطاف پذیر به جای قوانینی سختگیرانه در خصوص هوش مصنوعی متقاعد کند.
روسیه؛ گیگا چت بومی
بانک روسی «اسبربانک» (Sberbank) رقیب چت جی پی تی به نام «گیگاچت» را ارائه کرده است. این فناوری در حال حاضر در وضعیت آزمایشی است و افراد با استفاده از دعوتنامه میتوانند از آن استفاده کنند.
به گفته اسبربانک نکته متمایز گیگاچت توانایی برقراری ارتباط هوشمندانهتر به زبان روسی نسبت به سایر شبکههای عصبی خارجی است.
اسبربانک یا بانک پسانداز فدراسیون روسیه بزرگترین بانک در روسیه و اروپای شرقی است که در سالهای اخیر سرمایه گذاری عظیمی در این فناوری کرده است. هدف این بانک کاهش اتکای کشور به واردات است زیرا پس از حمله روسیه به اوکراین کشورهای غربی صادرات را به شدت کاهش داده و تحریمهای علیه آن وضع کرده اند.
ضرورت پیوست نگاری برای فناوریهای نوظهور
«علی زرودی»، پژوهشگر فضای مجازی و مدرس دانشگاه، در گفتگو با خبرنگار مهر درباره تهدیدات بالقوه هوش مصنوعی گفت: هوش مصنوعی مانند بسیاری از فناوریهای نوظهور گذشته، گرچه مزایای شگفتانگیزی دارد و فرصتهای بیبدیلی میآفریند؛ اما جوامع بشری را با تهدیدات بزرگی مواجه میکند. یکی از مهمترین این تهدیدات نقض امنیت داده و حریم خصوصی است.
وی افزود: تهدید دیگر بیکارشدن بخشی از نیروی کار فعلی جوامع است. افزایش نظارت دولتها و شرکتهای صاحب فناوری بر کاربران، افزایش دستکاری در افکار عمومی به واسطه تسهیل تولید و انتشار محتوای نادرست و جعلی (مانند ساخت ویدئوی جعلی از سخنرانی یک شخصیت مشهور)، پیچیدهتر شدن حملات سایبری، جاسوسی و باجافزارها نیز از دیگر تهدیدات این فناوری محسوب میشوند.
پژوهشگر فضای مجازی گفت: البته هوش مصنوعی برای تقابل با این تهدیدات هم یاریگر انسانها خواهد بود؛ به عنوان مثال تقویت «دفاع سایبری» از مزایای این فناوری محسوب میشود. نکته دیگر این است که پیشبینی این تهدیدات و اتخاذ تدابیر تنظیمگرانه برای مقابله با آنها مهم و ضروری است.
وی در ادامه و در مورد دلیل تمرکز نهادهای تنظیمگر جهان بر حوزه فناوری هوش مصنوعی افزود: وظیفه قانونگذاران و به طور کلی حکمرانان یک جامعه، تضمین منافع و مصالح عمومی آن جامعه است. هدف محوری شرکتهای هوش مصنوعی مانند سایر شرکتها در بخش خصوصی، بیشینه کردن سود تجاری است. بنابراین این شرکتها به دنبال خلاقیت و نوآوری روزانه هستند. از آنجا که مطابق نظریات جامعه شناختی، سرعت تغییرات ارزشی و هنجاری در یک جامعه بسیار کمتر از سرعت تغییرات فناوری در آن جامعه است (که اصطلاح تأخر فرهنگی/Cultural Lag را برای این پدیده استفاده میکنند) تحولات روزانه فناوریها موجب اختلال در سیستم ارزشی جوامع میشود.
زرودی افزود: اگر این تحول فناورانه، به صورت وارداتی باشد، شدت تأخر فرهنگی و اختلال ذکر شده بیشتر خواهد بود. تحولات سیستم ارزشی جامعه پیامدهایی برای سایر سیستمها همچون سیاست، فرهنگ، اقتصاد، تربیت و… دارد و منافع عمومی را به خطر میاندازد. قانونگذار به ویژه در کشورهایی که واردکننده فناوری هستند، تلاش میکند تا با محدودکردن شرکتهای فناوری از اختلالات ذکر شده بکاهد. به عنوان مثال بریتانیا و اتحادیه اروپا که در زمینه تحولات فناوری از شرکتهای آمریکایی عقب افتادهاند و محصولات فناورانه داخلی آنها نمیتواند با محصولات شرکتهای آمریکایی رقابت کند، به مقرراتگذاریِ حداکثری برای شرکتهای آمریکایی روی آوردهاند.
وی در این مورد گفت: فناوریهای نوظهور همواره میتواند شتاب پیشرفت اقتصادی را بیشتر کند مشروط به آنکه رویکرد فعالانه (بدون تأخیر، آیندهنگرانه و مبتنی بر طراحی بومی) وجود داشته باشد و زیرساختهای حقوقی، اقتصادی، اجتماعی و سیاسی لازم برای توسعه آن فناوری مهیا شود. با درنظر گرفتن چنین شرایطی، فناوری نوظهور میتواند در مسیر پیشرفت، جهش ایجاد کند.
هر یک روز تأخیر ما برای ورود به طراحی اکوسیستم بومی یک فناوری منجر به این میشود که در آن فناوری عقبمانده و بدون قدرت باشیم. اقتضای حکمرانی فعال، غنیمت شمردن فرصتهاست
پژوهشگر فضای مجازی و مدرس دانشگاه اظهار داشت: تاکنون چنین مواجهه مطلوبی با فناوریهای نوظهور نداشتهایم. اقدامات گذشته ما منفعلانه بوده است. یا جلوی یک فناوری را گرفتهایم یا در نهایت آن را وارد کرده و برایش پیوست فرهنگی و زیست محیطی و… نوشتهایم. پیوستنگاری برای فناوریهای نوظهور حتی اگر نوع پیوستنگاری پیشینی (یعنی پیش از ورود فناوری به کشور) باشد، اقدامی منفعلانه است. اقدام فعالانه در مواجهه با فناوری جدید، طراحی بومی باشد ضروری است. چند سال قبل که ما از ضرورت طراحی بومی اینترنت اشیا صحبت میکردیم، برخی این موضوع را باور نداشتند تا اینکه در دو سال گذشته، آفکام در رویکرد جدید خود برای توسعه سواد رسانهای، اقدام به تعامل با پلتفرمها کرده است تا طراحی پلتفرمها متناسب با اصول سواد رسانهای مدنظر آفکام باشد. درواقع مقررات و ارزشها را در مرحله طراحی فناوری پیادهسازی میکند. بعد از این اقدام آفکام، حرف ما نیز درخصوص طراحی بومی اینترنت اشیا شنیده شد. امروز هم همین موضوع درمورد هوش مصنوعی و سایر فناوریها وجود دارد. هر یک روز تأخیر ما برای ورود به طراحی اکوسیستم بومی یک فناوری منجر به این میشود که در آن فناوری عقبمانده و بدون قدرت باشیم. اقتضای حکمرانی فعال، غنیمت شمردن فرصتهاست.
هوش مصنوعیهایی مانند «ChatGPT» مزایای بسیاری دارند، این پلتفرمها میتوانند سرعت رشد و توسعه علم را بالا برده و به تجارت، اکتشاف، آموزش، سیاستگذاری و بسیاری از مسائل خرد و کلان زندگی بشر رونق بیشتری داده و کیفیتشان را بالا ببرد؛ اما بیاهمیتی به معایب آن و اقدامنکردن بهموقع برای تنظیمگری درست و بهقاعده میتواند آثار جبرانناپذیری داشته باشد که نهتنها خود آسیب میزنند بلکه مزایای هوش مصنوعی را هم عملاً بیفایده خواهند کرد.