فناوری اطلاعات

IBM و CERN از محاسبات کوانتومی برای درک قوانین پایه طبیعت استفاده می‌کنند

منبع: پیوست
 
استفاده از پتانسیل و کاربرد کامپیوتر‌های کوانتومی در حوزه‌های مختلف مثل بانکداری و کشتیرانی به راحتی امکان‌پذیر نیست و این تکنولوژی قرار است وارد مرحله جدیدی شود. تکنولوژی کوانتومی یکی از موضوعات مهم عصر جدید است. بازیگران بزرگی مثل گوگل تمرکز زیادی روی این موضوع داشته و چین این تکنولوژی را در برنامه پنج ساله خود به یک مورد بسیار مهم تبدیل کرده است. درحالی که همه به‌دنبال پیشرفت در تکنولوژی کوانتومی هستند، بزرگ‌ترین آزمایشگاه فیزیک ذره‌ای جهان برای درک داده‌های تجهیزاتش، از تیم کوانتوم IBM درخواست کمک کرده است.
 
 CERN، سازمان اروپایی پژوهش‌های هسته‌ای، بزرگ‌ترین آزمایشگاه فیزیک ذره‌ای جهان است که در سال ۱۹۵۴ در بخش شمال‌شرقی شهر ژنو در کشور سوییس در مجاورت مرز فرانسه ایجاد شد. برخورددهنده هادرونی بزرگ (LHC)، یک شتاب‌دهنده ذره‌ای و برخورددهنده مستقر در آزمایشگاه CERN است که آزمایش روی فیزیک ذرات را هدایت می‌کند. حالا متخصصان این آزمایشگاه برای درک داده‌های عظیمی که این برخورد‌دهنده تولید می‌کند، از تیم کوانتوم آی‌بی‌ام (IBM) کمک خواسته‌اند.
 
محققان IBM مشخص کرده‌اند که الگوریتم‌های کوانتومی می‌توانند داده‌های LHC را درک کنند. یعنی استفاده از کامپیوتر‌های کوانتومی باعث تقویت یافته‌‌های علمی در سرن می‌شود.
 
از آنجایی که ماموریت سرن، درک دلیل اتفاقاتی است که در جهان رخ می‌دهد، این یافته‌ها برای هرکسی که به هرچیزی از جمله ماده، ضد ماده، ماده سیاه و غیره علاقه‌مند است کاربرد دارد.
 
LHC یکی از مهمترین ابزار‌های سرن برای درک قوانین ذرات و نیروهایی است که به جهان ما شکل می‌دهد. این سیستم که به صورت یک حلقه ۲۷ کیلومتری است، به فتون‌ها و الکترون‌ها سرعت کمی کمتر از سرعت نور می‌دهد و این پرتو‌ها را به یکدیگر برخورد داده و به دانشمندان این آزمایشگاه اجازه می‌دهد تا به لطف شناساگر‌های دقیق این شتاب‌دهنده، آن را مشاهده کنند.
 
در هر ثانیه ذرات تقریبا یک میلیارد بار در داخل LHC به یکدیگر برخورد می‌کنند و یک پتابایت یا یک میلیون گیگابایت داده تولید می‌شود که در حال حاضر CPUهایی در ۱۷۰ منطقه جهان آن را پردازش می‌کنند. این سی‌پی‌یو‌ها به این دلیل در مناطق مختلف پراکنده شده‌اند که این حجم از داده را نمی‌توان در یک مکان ذخیره کرد.
 
البته موضوع تنها ذخیره داده نیست. تمام اطلاعاتی که توسط LHC جمع‌آوری می‌شود برای پردازش و تحلیل در اختیار دانشمندان قرار می‌گیرد تا آن را فرضیه سازی کرده، اثبات و شناسایی کنند.
 
محققان سرن با مشاهده برخورد ذرات به یکدیگر در سال ۲۰۱۲ وجود یک ذره ابتدایی به نام بوزون هیگز را شناسایی کردند که به تمام ذرات پایه جرم می‌دهد و این موضوع پیشرفت مهمی در علم فیزیکی محسوب می‌شد.
 
محققان تا به امروز از بهترین تجهیزات محاسبات در این کار استفاده کرده‌اند. در عمل این کار با استفاده از الگوریتم‌های پیچیده یادگیری ماشینی انجام می‌شود که می‌توانند داده‌های LHC را بررسی کرده و برخورد‌های مفید، مثلا برخورد‌هایی که بوزون هیگز را تولید کرده از برخورد‌های بی‌مصرف تفکیک کنند.
 
«ایوانو تاورنلی» و «پاناگیوتیس بارکوتساس»، محققان آی‌بی‌ام در یک پست وبلاگی گفتند: «تا به امروز محققان از تکنیک‌های قدیمی یادگیری ماشینی برای تحلیل داده‌های خام استفاده می‌کردند که به صورت خودکار بهترین رخدادها را مشخص می‌کند. اما ما فکر می‌کنیم که می‌توانیم این فرآیند نظارتی را با تقویت یادگیری ماشینی از طریق کوانتوم بهبود بخشیم.»
 
با افزایش حجم داده‌ها، مدل‌های یادگیری ماشینی به سرحد‌ توانایی خود نزدیک می‌شوند و در اینجا کامپیوتر‌های کوانتومی نقش مهمی ایفا می‌کنند. کبوبیت‌ها (Qubits: واحد اندازه‌گیری در کامپیوتر‌های کوانتومی) اطلاعات بیشتری را نسبت به بیت در خود جای می‌دهند که یعنی ابعاد بزرگ‌تری نسبت به دستگاه‌های قدیمی را پوشش می‌دهند.
 
یک کامپیوتر کوانتومی که از کیوبیت‌های کافی برخرودار باشد می‌تواند محاسبات پیچیده‌ای را انجام دهد که کامپیوتر‌های قدیمی برای حل آن به چند قرن زمان نیاز دارند.
 
به همین دلیل سرن در سال ۲۰۱۸ با تیم کوانتوم آی‌بی‌ام همکاری خود را آغاز کرد تا دریابد که دقیقا کدام تکنولوژی‌ها را می‌توان برای پیشبرد یافته‌های علمی استفاده کرد.
 
یادگیری ماشینی کوانتومی خیلی زود به عنوان یکی از گزینه‌های احتمالی مطرح شد. هدف استفاده از کیوبیت‌ها برای توسعه فضای مشخصه‌ها یا همان مجموعه مشخصاتی است که الگوریتم دسته‌بندی خود را براساس آن انجام می‌دهد. یک کامپیوتر کوانتومی با استفاده از فضای بزرگ‌تری از مشخصه‌ها می‌تواند الگوها را شناسایی و حتی در پایگاه داده‌های عظیم نیز دسته‌بندی انجام دهد؛ در فضایی که کامپیوتر‌ها قدیمی چیزی جز اختلالات تصادفی نمی‌بینند.
 
یک الگوریتم یادگیری ماشینی کوانتومی در تحقیقات سرن می‌تواند داده‌های خام را بررسی و برای مثال وقوع رفتار‌ی مثل بوزون هیگز را شناسایی کند در حالی که کامپیوتر‌ها قدیمی قادر به دیدن چنین چیزی نیستند.
 
تیم آی‌بی‌ام پیشتر یک الگوریتم کوانتومی به نام QSVM را ایجاد کردند که قرار است برخورد‌های تولیدکننده بوزون هیگز را شناسایی کند. این الگوریتم که با داده‌های مربوط به شناساگر‌های LHC آموزش دیده، روی شبیه‌ساز‌های کوانتوم و سخت‌افزار فیزیکی کوانتوم استفاده شده است.
 
در هر دو مورد، نتایج امیدوار کننده بود. در این مطالعه که از کامپیوتر کوانتومی گوگل، آی‌بی‌ام و آمازون استفاده شد، ۲۰ کیوبیت و داده‌های ۵۰ هزار رخداد استفاده شده و عملکرد را اگر بهتر از کامپیوتر‌های قدیمی ندانیم باید قابل قبول دانست.
 
آزمایش سخت‌افزاری روی دستگاه‌های کوانتوم IBM انجام گرفت و از ۱۵ کیوبیت و داده‌های ۱۰۰ رخداد استفاده شد. نتایج نشان داد که با وجود اینکه اختلال روی محاسبات کوانتومی تاثیرگذار بوده، این دسته‌بندی در مقایسه با بهترین نتایج شبیه‌سازی با استفاده از کامپیوتر‌های قدیمی قابل مقایسه بوده است.
 
«تاورنیلی» و «بارکوتساس» نوشتند: «بار دیگر پتانسیل الگوریتم کوانتومی برای این دسته از مسئله‌ها تایید شد، کیفیت نتایج ما حاکی از برتری کوانتوم برای دسته‌بندی داده با ماشین‌های پشتیبانی‌کننده از کوانتوم در آینده‌ای نزدیک است.»
 
البته این برتری هنوز به اثبات نرسیده است. الگوریتم کوانتومی که IBM طراحی کرده با توجه به پردازشگر‌های کوانتومی که امروز وجود دارند قابل مقایسه بود اما این سیستم‌ها هنوز در مراحل اولیه ساخت و توسعه قرار دارند.
 
همچنین کامپیوتر‌های کوانتومی امروزی با تعداد محدود کیوبیت‌، امکان به انجام رساندن محاسبات مفید را ندارند. شکنندگی کیوبیت‌ها نیز این کامپیوتر‌ها را محدود کرده است؛ کیوبیت‌ها نسبت به تغییرات محیطی بسیار حساس هستند و احتمال خطا بالا است.
 
آی‌بی‌ام و سرن روی پیشرفت‌های آینده سرمایه‌گذاری کرده‌اند و ادعای آنها تنها برتری الگوریتم‌های کوانتومی از لحاظ نظری نیست.
 
محققان سرن به این بخش از تحقیقات و محاسبات کوانتومی به شدت امیدوارند. LHC در حال حاضر در مراحل ارتقای سیستم است و سیستم جدید پس از تکمیل به‌روزرسانی در سال ۲۰۲۷ اجرایی می‌شود و انتظار می‌رود که برخوردهایی تا ده برابر بیشتر را پشتیبانی کند. حجم داده تولید شده نیز به همین ترتیب افزایش می‌یابد و طولی نمی‌کشد که دیگر پردازنده‌های قدیمی قادر به مدیریت آن نیستند.

​​