فناوری اطلاعات

February 13, 2023
10:22 دوشنبه، 24ام بهمنماه 1401
کد خبر: 143079

اتفاقات مورد انتظار در حوزه هوش مصنوعی در سال 2023

با توجه به محبوبیت چشمگیر هوش مصنوعی در ماه‌های اخیر، 2023، سال مهمی برای شرکت‌های فعال در این حوزه خواهد بود.
 
افزایش انتشار اپلیکیشن‌های خلق آثار هنری با هوش مصنوعی یکی از مهم‌ترین اتفاقات مورد انتظار در حوزه هوش مصنوعی در سال ۲۰۲۳ است. درضمن مقابله با استفاده از آثار هنری هنرمندان برای آموزش سیستم‌های هوش مصنوعی نیز در سال میلادی جاری دور از انتظار نیست. امکان تغییر رویکرد شرکت‌ها در سال ۲۰۲۳ در راستای تبعیت از قوانین جدید مرتبط با هوش مصنوعی نیز وجود دارد. احتمالاً در ماه‌های آینده شاهد جذب سرمایه‌های قابل‌توجهی در این‌ حوزه خواهیم بود.
 
هوش مصنوعی هم مانند هر فناوری دیگری مزایا و معایب خود را دارد. این فناوری هم می‌تواند باعث ترس و وحشت شود و هم می‌تواند امید و روشنی بیافریند. در این مطلب قصد داریم مهم‌ترین اتفاقات مورد انتظار در حوزه هوش مصنوعی در ماه‌های آتی ۲۰۲۳ را بیان کنیم.
 
مدل‌های هوش مصنوعی خالق آثار هنری، با خلاقیت سرشار خود باعث ایجاد اپلیکیشن‌های متعدد ساخت عکس و حتی ایجاد مدل‌های تجاری شده‌اند. Stable Diffusion (استیبل دیفیوژن) که تابستان ۲۰۲۲ منتشر شد، یکی از این‌ مدل‌هاست.
نمونه آثار خلق‌شده توسط مدل هوش مصنوعی Stable Diffusion
 
از سوی دیگر، ماهیت متن‌باز این مدل‌ها باعث شد آن‌ها ابزار دست جاعلان برای ساخت تصاویر دیپ فیک شوند. درضمن راه‌اندازی Stable Diffusion، اعتراضات هنرمندان دیجیتالی در مورد کاهش درآمدشان را نیز به‌دنبال داشت.
 
به نظر شما در سال ۲۰۲۳ شاهد چه اتفاقاتی در حوزه هوش مصنوعی خواهیم بود؟ آیا قوانین می‌توانند بدترین پیامدهای رشد توانایی‌های هوش مصنوعی را مهار کنند؟ آیا اشکال جدید متحول‌کننده هوش مصنوعی مثل چت بات هوش مصنوعی ChatGPT (چت جی‌پی‌تی) می‌توانند بخش‌هایی را که زمانی به‌نظر می‌رسید در برابر عواقب بد توسعه هوش مصنوعی مصون باقی خواهند مانند، کاملاً تحت سلطه خود قرار دهند؟
چت‌بات هوش مصنوعی ChatGPT
 
افزایش اپلیکیشن‌های خلق آثار هنری با هوش مصنوعی
لنزا (lensa)، اپلیکیشن موبایل برای گرفتن عکس‌های سلفی و ویرایش آن‌ها، محصول شرکت پریزما لبز (Prisma Labs)، در سال ۲۰۲۲ موفقیت و محبوبیت زیادی را به‌دست آورد. با توجه به موفقیت این‌ اپلیکیشن انتظار می‌رود سال ۲۰۲۳ شاهد انتشار تعداد زیادی از اپلیکیشن‌های مشابه از سوی شرکت‌های فعال در این‌حوزه باشیم.
اپلیکیشن موبایل هوش مصنوعی لنزا برای گرفتن تصاویر سلفی و ویرایش آن‌ها
 
البته متأسفانه ممکن است تصاویر خروجی چنین اپلیکیشن‌هایی، از نظر اخلاقی نامناسب ‌باشد. حتی ممکن است این‌ اپلیکیشن‌ها برای ایجاد جذابیت جنسی در تصاویر زنان، ظاهر چنین تصاویری را به‌شکل نامناسبی تغییر دهند.
نمونه آثار هنری خلق‌شده با هوش مصنوعی زایا
 
به‌نظر ماکسیمیلیان گانتز (Maximilian Gahntz)، پژوهشگر ارشد در حوزه خط‌مشی‌ها در بنیاد موزیلا (Mozilla Foundation)، ادغام سیستم‌های هوش مصنوعی زایا در فناوری‌های مصرفی، باعث بهبود تأثیرگذاری و عملکرد این‌ فناوری‌ها می‌شود. این‌ اتفاق تأثیرات خوب و بد متفاوتی را به‌دنبال خواهد داشت.
 
مثلاً برای آموزش تطابق کلمات و مفاهیم خاص با تصاویر خاص به سیستم هوش مصنوعی Stable Diffusion، از میلیاردها عکس موجود در اینترنت استفاده شده است. درضمن ابزار هوش مصنوعی ایجادکننده متن را می‌توان به‌راحتی فریب داد و آن‌ها را به ابزاری برای ارائه نگرش‌های توهین‌آمیز و اطلاعات گمراه‌کننده تبدیل کرد.
 
«مایک کوک» (Mike Cook) عضو گروه پژوهش باز نایوز و پینت براشیز (Knives and Paintbrushes)، در مورد اینکه هوش مصنوعی زایا در آینده زمینه‌ساز ایجاد تغییرات اساسی (و البته مشکل‌آفرین) اجباری می‌شود، با گانتز موافق است؛ اما قبلاً گفته سرمایه‌گذاری برای توسعه هوش مصنوعی زایا در سال ۲۰۲۳، تنها برای بهبود وضعیت کنونی آن انجام می‌شود و سرمایه‌ها صرف تحقق وعده‌های داده‌شده در مورد آن نمی‌شوند.
 
کوک در مورد موضوع این‌چنین گفته است:
 
«ترغیب جامعه متخصصان هوش مصنوعی برای ایجاد فناوری جدید و تلاش آن‌ها برای تحقیق تأثیرگذاری بلندمدت این‌ فناوری‌ها روی زندگی مردم، به‌تنهایی کافی نیست و باید شرایط کسب درآمد سرشار از این‌ فناوری‌ها یا ایجاد تأثیرات محسوس آن‌ها روی زندگی روزمره مردم را نیز فراهم کرد. بنابراین به نظرم در آینده شاهد اقدام پیشران جدیدی برای دستیابی هوش مصنوعی زایا به یکی از این دو هدف مذکور یا کسب موفقیت آن در هر دو زمینه باشیم.»
 
مقابله با استفاده از آثار هنری هنرمندان برای آموزش سیستم‌های هوشمند مصنوعی
شبکه اجتماعی آنلاین هنرمحور دویان‌آرت (DeviantArt)، یک هوش مصنوعی خالق آثار هنری را بر پایه  Stable Diffusion ایجاد کرده است. در این‌مدل از مجموع آثار برگزیده شبکه هنری جامعه دویان‌آرت نیز استفاده شده است؛ اما متأسفانه این‌ابزار مورد حمله شدید اعضای طولانی‌مدت جامعه هنری دویان‌آرت قرار گرفت. این‌هنرمندان در مورد عدم شفافیت سیستم در مورد استفاده از آثار هنری بارگذاری شده آنها در دویان‌آرت، برای آموزش هوش مصنوعی، شدیداً انتقاد کرده‌اند.
 
OpenAI (اوپن‌‌ای‌آی) و Stability AI (استیبیلیتی اِی‌آی‌)، دو شرکت سازنده محبوب‌ترین سیستم‌های هوش مصنوعی کنونی یعنی ChatGPT و Stable Diffusion، اعلام کرده‌اند در حال انجام اقداماتی برای محدودکردن میزان محتوای آسیب‌زننده ایجادشده توسط این دو مدل هستند.
 
البته خروجی‌های این دو ابزار بر مبنای بسیاری از تصاویر و متون موجود در شبکه‌های اجتماعی مورد قضاوت قرار می‌گیرند و بی‌شک هر دو هنوز جای کار دارند.
 
گانتز که در حال مقایسه بحث‌وجدل‌های دائمی مرتبط با بازبینی محتوای شبکه‌های اجتماعی است، در مورد این‌موضوع این‌چنین گفته است:
 
رفع چنین مشکلاتی نیازمند جمع‌آوری، مدیریت و ارائه دائمی مجموعه داده‌ها است. چنین داده‌هایی ازجمله داده‌های کسب‌شده از جوامعی که در ارائه محتوا چندان موفق نبوده‌اند، باید موشکافانه بررسی شوند.
 
شرکت Stability AI که بخش عمده‌ای از سرمایه موردنیاز پروژه Stable Diffusion را تأمین کرده، اخیراً در برابر فشارهای عمومی تسلیم شده است. چنین اقدامی نشان داد که شرکت مذکور این‌حق را به هنرمندان داده که اجازه ندهند از آثار هنری‌شان که در حقیقت همان مجموعه داده‌ها هستند، برای آموزش نسل بعدی Stable Diffusion استفاده شود. هنرمندانی که این‌حق را دارند، می‌توانند تا چند هفته قبل از آغاز فرایند آموزش هوش مصنوعی با مراجعه به وب‌سایتی، درخواستشان را برای استفاده‌نشدن از آثار هنری خود برای این‌کار ثبت کنند.
 
البته متأسفانه OpenAI چنین مکانیسم ایجاد نکرده است. این‌شرکت مشارکت با شرکت‌هایی ارائه‌دهنده تصاویر باکیفیت مثل شاتر استاک (Shutterstock) به‌منظور کسب مجوز قانونی استفاده از بخشی از کلکسیون تصاویر چنین شرکت‌هایی برای آموزش هوش مصنوعی را به استفاده از آثار هنرمندان ترجیح داده است.
 
البته Stability AI با فشارها و مخالفت‌های قانونی و عمومی در مورد استفاده از عموم آثار هنرمندان مواجه شده است. به همین دلیل این‌شرکت نیز مدت کوتاهی قبل از آغاز فرایند آموزش هوش مصنوعی، رویکرد OpenAI را دنبال خواهد کرد. حتی ممکن است دادگاه Stability AI را وادار به انجام چنین کاری کند؛ زیرا اکنون شرکت‌های مایکروسافت، گیت هاب و OpenAI به دلیل نقض قانون کپی‌رایت به خاطر استفاده از ابزار هوش مصنوعی کوپایلوت (Copilot)، سرویس گیت هاب با قابلیت پیشنهاد خودکار خطوط کدها، تحت پیگرد قضایی هستند. طبیعتاً امکان دارد Stability AI نیز با چنین مشکلی مواجه شود.
 
البته احتمالاً گیت هاب مواجهه با چالش‌ها و مشکلات قانونی در آینده را پیش‌بینی کرده است و برای جلوگیری از مواجهه با چنین مشکلاتی تلاش می‌کند؛ زیرا این‌شرکت تنظیمات جدیدی برای جلوگیری از نمایش کدهای عمومی در پیشنهاد‌ها کوپایلوت ایجاد کرده است. در ضمن یک ویژگی برای ارجاع‌دادن به منبع کدهای پیشنهادی نیز معرفی کرده است؛ اما چنین اقداماتی بدون عیب نیستند؛ مثلاً در یک نمونه، تنظیمات فیلترینگ باعث شدند کوپایلوت بخش عمده‌ای از کدهای دارای کپی‌رایت ازجمله کدهای موجود در متون ارجاع داده شده به فرد مؤلف یا متون دارای گواهینامه را حذف کند.
 
انتظار می‌رود در سال ۲۰۲۳ انتقادات در مورد هوش مصنوعی افزایش یابد؛ مخصوصاً در انگلستان. درضمن ممکن است قوانینی که لزوم استفاده صرفاً تجاری از سیستم‌های آموزش‌دیده با داده‌های عمومی را حذف می‌کنند، به‌دقت و با تفکر کامل بررسی شوند.
 
ادامه رشد پروژه‌های متن‌باز و غیرمتمرکز هوش مصنوعی
در سال ۲۰۲۲ تنها تعداد معدودی از شرکت‌های هوش مصنوعی، صحنه را در دست گرفتند که OpenAI و Stability AI مهم‌ترین آنها بودند؛ اما انتظار می‌رود در سال میلادی جاری سیستم‌ها باز هم به سمت متن‌باز شدن حرکت کنند. همچنین ممکن است ساخت سیستم‌هایی با قابلیت‌هایی فراتر از قابلیت‌های سیستم‌های هوش مصنوعی قوی کنونی با قابلیت‌های متعدد، نیز امکان‌پذیر شود. نگرش جامعه هوش مصنوعی می‌تواند منجر به بررسی دقیق‌تر سیستم‌ها در حین فرایند ساخت یا به کارگیری آنها شود.
 
گانتز در مورد این‌موضوع این‌چنین می‌گوید:
 
اگر مدل‌ها متن‌باز و مجموعه داده‌ها هم باز باشند، پژوهش انتقادی به میزان بسیار بیشتری امکان‌پذیر می‌شود. این‌اتفاق منجر به نمایان‌شدن بسیاری از اشتباهات و آسیب‌های مرتبط با هوش مصنوعی زایا می‌شود. پی‌بردن به این‌اشتباهات و آسیب‌ها تا به امروز بسیار دشوار بوده است.
 
ایجاد مدل‌های زبانی بزرگ ایجادشده توسط الوثر ای‌آی (EleutherAI) و بیگ ساینس (BigScience)، نمونه‌‌ای از این‌تلاش‌های متمرکز بر جامعه هوش‌ مصنوعی هستند. این‌مدل‌ها با پشتیبانی استارتاپ هوش مصنوعی هاگینگ فیس (Hugging Face) انجام شده‌اند. EleutherAI گروه غیرمتمرکزی از پژوهشگران، مهندسان و توسعه‌دهندگان داوطلب متمرکز روی متوازن‌سازی و مقیاس‌گذاری هوش مصنوعی و پژوهش در مورد هوش مصنوعی متن‌باز است. BigScience یک گروه علمی باز پیشگام متشکل از محققان سراسر جهان با هدف همکاری برای آموزش یک سیستم زبانی بزرگ است.
 
در ضمن خود Stability AI هم در حال تأمین سرمایه موردنیاز تعدادی از جوامع هوش مصنوعی است. از میان این‌جوامع می‌توان به هارمون آی‌ای (Harmonai)، جامعه متمرکز روی ساخت موسیقی و اوپن‌بیو‌ام‌ال (OpenBioML)، مجموعه‌ای گسترده از آزمایش‌های زیست‌فناوری، اشاره کرد.
 
داشتن سرمایه کافی و تخصص لازم هنوز هم دو اصل موردنیاز برای آموزش و راه‌اندازی مدل‌های هوش مصنوعی پیچیده هستند؛ اما ممکن است با جواب‌دادن تلاش‌های متن‌باز، مراکز داده قدیمی متداول، با فناوری محاسبه غیرمتمرکز به چالش کشیده شوند.
 
گروه BigScience اخیراً با انتشار پروژه متن‌باز پتالز (Petals)، گامی در راستای امکان‌پذیرکردن توسعه غیرمتمرکز، برداشت. Petals توزیع قدرت محاسباتی را برای کاربران فراهم می‌کند. این‌پروژه عملکردی مشابه پروژه فولدینگ ات‌ساین هوم (Folding@home) دارد. Folding@home برای راه‌اندازی مدل‌های زبانی هوش مجموعه بزرگ طراحی شده است. استفاده از این‌پروژه معمولاً نیازمند استفاده از یک پردازنده گرافیکی یا یک سرور و دوام بالا و قدرتمند است.
 
چاندرا باگاواتولا (Chandra Bhagavatula)، دانشمند پژوهشگر ارشد موسسه هوش مصنوعی آلن Allen، در ایمیلی در مورد آموزش و راه‌اندازی مدل‌های مدرن هوش مصنوعی زایا، این‌چنین گفت:
 
آموزش و راه‌اندازی مدل‌های مدرن هوش مصنوعی زایا، از نظر محاسباتی پرهزینه است. برخی از تخمین‌های غیررسمی هزینه روزانه اجرای سیستم ChatGPT را در حدود ۳ میلیون دلار برآورد کرده‌اند. در نظر گرفتن چنین هزینه‌هایی، برای تداوم فعالیت این‌چت بات هوش مصنوعی و گسترده‌کردن دسترسی به آن در آینده ضروری می‌شود.
 
به نظر باگاواتولا تا زمانی که روش‌ها و داده‌های در دسترس، اختصاصی باقی بمانند، لابراتوارهای هوش مصنوعی همچنان مزیت رقابتی خود را حفظ خواهند کرد؛ مثلاً به‌تازگی OpenAI مدل پوینت- ای (Point-E) را با قابلیت ایجاد عناصر سه‌بعدی بر مبنای درخواست‌های متنی منتشر کرده؛ اما با اینکه OpenAI مدل را متن‌باز کرده، از افشای منبع داده‌های استفاده‌شده برای آموزش Point-E یا انتشار خود داده‌ها اجتناب کرده است.
مدل هوش مصنوعی Point-E با قابلیت ایجاد طرح‌های سه‌بعدی بر مبنای ورودی متن
 
باگاواتولا در مورد این‌موضوع این‌چنین گفته است:
 
به نظر من تلاش‌های متن‌باز و تلاش‌های غیرمتمرکز، واقعاً ارزشمند نیستند و نمی‌توانند برای تعداد زیادی از پژوهشگران، متخصصان حوزه هوش مصنوعی و کاربران سودمند باشند. بهترین مدل‌ها برخلاف متن‌بازبودن به دلیل محدودبودن منابع آنها، هنوز برای بسیاری از پژوهشگران و متخصصان غیر قابل دسترس هستند.
 
تغییر رویکرد شرکت‌های هوش مصنوعی در راستای تبعیت از قوانین جدید
قوانینی مثل قانون هوش مصنوعی اتحادیه اروپا (EU’s AI Act) می‌توانند رویکرد شرکت‌های هوش مصنوعی در مورد نحوه ایجاد و به‌کارگیری سیستم‌های هوش مصنوعی در آینده را تغییر دهند. بنابراین سایر قوانین هوش مصنوعی محلی مثل قانون به‌کارگیری هوش مصنوعی نیز می‌توانند زمینه‌ساز چنین تغییراتی شوند.
 
بر اساس قانون هوش مصنوعی نیویورک، آن دسته از فناوری‌های هوش مصنوعی یا فناوری‌های مبتنی بر الگوریتم‌ها که برای استخدام رسمی و استخدام قراردادی و فروش استفاده می‌شوند، باید قبل از استفاده‌شدن، ازنظر متعصبانه بودن یا نبودن، بررسی شوند.
 
باگاواتولا اعمال چنین قوانینی را ضروری می‌داند؛ خصوصاً در زمان کنونی که نقایص فنی آشکار هوش مصنوعی زایا مثل گرایش آن به ارائه حجم گسترده‌ای از اطلاعات اشتباه، در حال افزایش هستند.
 
او در مورد این موضوع این‌چنین می‌گوید:
 
استفاده از هوش مصنوعی زایا به دلیل داشتن نقایص فنی، در برخی از مکان‌ها، مثل حیطه‌هایی که اشتباهات در آنها منجر به بار آوردن هزینه‌های هنگفت می‌شوند (نظیر مراکز درمانی)، دشوار است. در ضمن سهولت ایجاد اطلاعات نادرست، منجر به ایجاد نگرانی‌های در مورد دروغ‌پراکنی و انتشار اطلاعات نادرست شده است. سیستم‌های هوش مصنوعی قبلاً تصمیماتی با پیامدهای منفی اخلاقی متعدد گرفته‌اند و هنوز هم شاهد چنین اتفاقاتی هستیم.
 
قوانین جدید حوزه هوش مصنوعی می‌توانند شرکت‌های فعال در این‌حوزه را در سال ۲۰۲۳ به چالش بکشاند. همچنین انتظار می‌رود امسال شاهد بحث‌وجدل‌های بیشتری در مورد این‌قوانین باشیم. حتی ممکن است میزان برگزاری دادگاه‌ها قبل از جریمه یا متهم‌شدن افراد، افزایش یابد.
 
البته ممکن است رقابت شرکت‌های هوش مصنوعی برای کسب جایگاهی ارزشمند در سودمندترین گروه‌های طبقه‌بندی‌های قانون‌های آینده، در این‌سال همچنان ادامه داشته باشد. گروه‌های «risk (پرخطر)» در طبقه‌بندی قانون هوش مصنوعی اتحادیه اروپا، نمونه‌ای از این‌گروه‌ها هستند.
 
قوانین کنونی هوش مصنوعی، سیستم‌های هوش مصنوعی را به ۴ گروه پرخطر تقسیم کرده‌اند. در هر یک از این‌گروه‌ها، سیستم‌های هوش مصنوعی دارای ویژگی‌های خاصی قرار می‌گیرند. در ضمن در هر گروه سیستم‌ها در سطح متفاوتی، با دقت بالایی بررسی‌ می‌شوند.
 
مثلاً الگوریتم‌های امتیازبندی اعتبار و اپلیکیشن‌های جراحی با هوش مصنوعی، در گروه سیستم‌های پرخطر (high risk) قرار گرفته‌اند. سیستم‌های هوش مصنوعی برای کسب مجوز ورود به بازار اروپا، باید یک‌‌سری استانداردهای قانونی، اخلاقی و فنی را داشته باشند
 
اما سیستم‌های دارای کمترین میزان خطر یا بدون خطر (minimal or no risk)، لازم نیست چنین استانداردهایی را داشته باشند. این‌ سیستم‌ها مثل سیستم‌های فیلتر اسپم‌ها و بازی‌های کامپیوتری دارای هوش مصنوعی، تنها ملزم به رعایت شفاف‌سازی هستند؛ مثلاً چنین سیستم‌هایی باید به کاربران اطلاع دهند که آنها درحال تعامل با یک سیستم هوش مصنوعی هستند.
اوس کیز (Os Keyes)، کاندیدای دکترا در دانشگاه واشنگتن در مورد تصمیم آن دسته از شرکت‌های هوش مصنوعی که مصمم به استفاده از سیستم‌های هوش مصنوعی دارای کمترین میزان خطر به‌منظور به حداقل رساندن مسئولیت‌های خود و حضورشان در زیر ذره‌بین قوانین هستند، ابراز نگرانی کرده است.
 
به نظر او فارغ از نگرانی‌های مرتبط با هوش مصنوعی، قانون هوش مصنوعی اتحادیه اروپا، بهترین گزینه برای بازدارندگی در حوزه هوش مصنوعی است. به اعتقاد او کنگره آمریکا تقریباً هیچ قانونی برای مقابله با عواقب بد استفاده از هوش مصنوعی وضع نکرده است.
 
جذب سرمایه‌های قابل‌توجه
گانتز، معتقد است حتی اگر هوش مصنوعی برای بسیاری از افراد به‌اندازه کافی خوب باشد، به برخی از افراد آسیب‌های عمیقی وارد می‌کند. به نظر او قبل از آغاز استفاده گسترده مردم از ابزارهای هوش مصنوعی یا شروع استفاده تجاری از آنها باید کارهای زیادی در این‌حوزه انجام شود.
 
مسلماً در صورت تولید محتوای نامناسب و درهم‌برهم توسط هوش مصنوعی زایا، کاربران دیگر تمایلی به استفاده از آن نخواهد داشت. در ضمن هوش مصنوعی باید برای همه کاربران محتوایی باکیفیت یکسان ارائه دهد.
 
هنوز مشخص نیست که آیا در سال ۲۰۲۳ شرکت‌های هوش مصنوعی متقاعد به رعایت موارد مذکور خواهند شد یا نه. این‌موضوع اهمیت زیادی دارد؛ به‌خصوص اکنون که سرمایه‌گذاران متمایل به سرمایه‌گذاری روی هر گونه هوش مصنوعی زایای نویدبخش هستند.
 
شرکت Stability AI علی‌رغم وجود بحث‌های جنجال‌برانگیز در مورد Stable Diffusion، موفق به جذب سرمایه ۱۰۰ میلیون دلاری از سوی حامیان مطرحی با ارزشی بالغ بر یک میلیارد دلار شده است. از میان این‌حامی‌ها می‌توان به کوتو (Coatue)، شرکت سرمایه‌گذاری متمرکز بر فناوری و لایت‌اسپید پارتنرز (lightspeed venture partners)، شرکت سرمایه‌گذاری خطرپذیر، اشاره کرد.
 
گفته می‌شود OpenAI در حال حاضر ۲۰ میلیارد دلار ارزش دارد. در ضمن این‌شرکت برای گرفتن سرمایه بیشتر از مایکروسافت در حال رایزنی‌های پیشرفته با این‌شرکت است. مایکروسافت قبلاً در سال ۲۰۱۹ یک میلیارد دلار در OpenAI سرمایه‌گذاری کرده است؛ البته مسلماً برخی از شرکت‌ها هم موفق به جذب سرمایه نخواهند شد.
 
طبق اطلاعات ارائه‌شده در وب‌سایت کرانچ بیس (crunchbase)، وب‌سایت ارائه‌دهنده اطلاعات تجاری شرکت‌های خصوصی و دولتی، تقریباً تمام شرکت‌های مصنوعی برتر موفق به جذب سرمایه در سال ۲۰۲۲، شرکت‌های نرم‌افزاری هستند. تنها چهار شرکت هوش مصنوعی سخت‌افزاری موفق به کسب چنین موفقیتی در سال ۲۰۲۲ شدند. این‌شرکت‌ها شامل سه شرکت فعال در حوزه فناوری خودران یعنی کرروز (Cruise) و وی‌وی (Wayve) و وی راید (WeRide) و شرکت رباتیک مگاروبو (MegaRobo) می‌شود.
 
کانتنت اسکوئر Contentsquare، شرکت فروشنده سرویس ارائه‌دهنده محتوای پیشنهادی هوش مصنوعی‌محور برای فضای وب، در جولای ۲۰۲۲ فرایند سرمایه‌گذاری ۶۰۰ میلیون دلاری خود را تکمیل کرد. یونیفور (Uniphore)، شرکت فروشنده نرم‌افزارهای تحلیل مکالمات و دستیارهای قادر به مکالمه (برای استفاده در مکان‌هایی مثل مراکز تماس)، در فوریه ۲۰۲۲ سرمایه‌گذاری ۴۰۰ میلیون دلاری خود را انجام داد.
 
شرکت‌ های اسپات (Highspot) که پلتفرم هوش مصنوعی آن توانایی ارائه پیشنهاد‌های جذب مشتری بازاریابی آنی داده محور را دارد، نیز در ژانویه ۲۰۲۲ دست به سرمایه‌گذاری ۲۴۸ میلیون دلاری زد.
 
ممکن است سرمایه‌گذاران به دنبال سرمایه‌گذاری در حوزه‌های مطمئن هوش مصنوعی باشند؛ حتی اگر چنین حوزه‌هایی به‌اندازه هوش مصنوعی زایا جذاب نباشند. از میان این‌حوزه‌ها می‌توان به خودکارسازی فرایند تجزیه‌وتحلیل اطلاعات با هوش مصنوعی پیشرفته اشاره کرد. ایجاد بازدیدکنندگان دائمی (منظور ارجاع‌دادن مشتریان به یک پلتفرم فروش است) نیز حوزه بدون خطری برای سرمایه‌گذاری است.
 
هوش مصنوعی حوزه‌ای نیست که توانایی جلب توجه سرمایه‌گذاران را نداشته باشد؛ اما بیشتر برای سرمایه‌گذاران مطرح با نفوذ و مطلع از اتفاقات احتمالی آینده دنیای فناوری مناسب است.
  • مشترک شوید!

    برای عضویت در خبرنامه روزانه ایستنا؛ نشانی پست الکترونیکی خود را در فرم زیر وارد نمایید. پس از آن به صورت خودکار ایمیلی به نشانی شما ارسال میشود، برای تکمیل عضویت خود و تایید صحت نشانی پست الکترونیک وارد شده، می بایست بر روی لینکی که در این ایمیل برایتان ارسال شده کلیک نمایید. پس از آن پیامی مبنی بر تکمیل عضویت شما در خبرنامه روزانه ایستنا نمایش داده میشود.

    با عضویت در خبرنامه پیامکی آژانس خبری فناوری اطلاعات و ارتباطات (ایستنا) به طور روزانه آخرین اخبار، گزارشها و تحلیل های حوزه فناوری اطلاعات و ارتباطات را در هر لحظه و هر کجا از طریق پیام کوتاه دریافت خواهید کرد. برای عضویت در این خبرنامه، مشترکین سیمکارت های همراه اول لازم است عبارت 150 را به شماره 201464 و مشترکین سیمکارت های ایرانسل عبارت ozv ictn را به شماره ۸۲۸۲ ارسال کنند. دریافت موفق هر بسته خبری که محتوی پیامکی با حجم ۵پیامک بوده و ۴ تا ۶ عنوان خبری را شامل میشود، ۳۵۰ ریال برای مشترک هزینه در بردارد که در صورتحساب ارسالی از سوی اپراتور مربوطه محاسبه و از اعتبار موجود در حساب مشترکین سیمکارت های دائمی کسر میشود. بخشی از این درآمد این سرویس از سوی اپراتور میزبان شما به ایستنا پرداخت میشود. مشترکین در هر لحظه براساس دستورالعمل اعلامی در پایان هر بسته خبری قادر خواهند بود اشتراک خود را در این سرویس لغو کنند. هزینه دریافت هر بسته خبری برای مشترکین صرفا ۳۵۰ ریال خواهد بود و این هزینه برای مشترکین در حال استفاده از خدمات رومینگ بین الملل اپراتورهای همراه اول و ایرانسل هم هزینه اضافه ای در بر نخواهد داشت.