به گزارش خبرنگار حوزه دریچه فناوری گروه فضای مجازی باشگاه خبرنگاران جوان، به نقل از actu.epfl.ch، دو فیزیکدان از EPFL و دانشگاه کلمبیا، روشی را برای شبیه سازی الگوریتم بهینه سازی تقریبی کوانتومی با استفاده از رایانه سنتی معرفی کرده اند. به جای اجرای الگوریتم بر روی پردازندههای کوانتومی پیشرفته، رویکرد جدید از یک الگوریتم کلاسیک یادگیری ماشین استفاده میکند که رفتار کامپیوترهای کوانتومی نزدیک مدت را شبیه سازی میکند. مقاله منتشر شده در Nature Quantum Information، توسط جوزپه کارلو، پروفسور EPFL و ماتیا مدیدوویچ دانشجوی کارشناسی ارشد دانشگاه کلمبیا و موسسه Flatiron در نیویورک، راهی را برای اجرای یک الگوریتم پیچیده محاسبات کوانتومی بر روی رایانههای سنتی به جای رایانههای کوانتومی نشان میدهد.
"نرم افزار کوانتومی" خاصی که دانشمندان در نظر دارند به عنوان الگوریتم بهینه سازی تقریبی کوانتومی (QAOA) شناخته میشود و برای حل مسائل بهینه سازی کلاسیک در ریاضیات استفاده میشود. اساساً این نرم افزار راهی برای انتخاب بهترین راه حل برای یک مشکل از مجموعه راه حلهای ممکن است. کارلئو میگوید: "علاقه زیادی به درک این موضوع وجود دارد که چه مشکلاتی را میتوان با رایانه کوانتومی به طور موثر حل کرد و QAOA یکی از برجستهترین نامزدها است. speedup، افزایش سرعت پیش بینی شدهای است که میتوانیم به جای رایانههای معمولی با رایانههای کوانتومی به دست آوریم. بدیهی است که QAOA تعدادی حامی از جمله گوگل دارد که چشم انداز خود را بر روی فناوریهای کوانتومی و محاسبات در آینده نزدیک متمرکز کرده اند. در سال ۲۰۱۹ آنها Sycamore، پردازنده کوانتومی ۵۳ کیوبیتی را ایجاد کردند. جالب است بدانید تکمیل یک ابر رایانه کلاسیک ۱۰ هزار سال طول میکشد، اما Sycamore همین کار را در ۲۰۰ ثانیه انجام داد."
این دو دانشمند در مطالعه خود به یک مسئله کلیدی در این زمینه پرداختند؛ آیا الگوریتمهای اجرا شده بر روی رایانههای کوانتومی فعلی و کوتاه مدت میتوانند مزایای قابل توجهی نسبت به الگوریتمهای کلاسیک برای کارهای مورد علاقه داشته باشند؟ کارلئو میگوید: "اگر بخواهیم به این سوال پاسخ دهیم، ابتدا باید محدودیتهای محاسبات کلاسیک را در شبیه سازی سیستمهای کوانتومی درک کنیم، زیرا نسل فعلی پردازندههای کوانتومی در شرایطی کار میکنند که هنگام اجرای نرم افزار کوانتومی دچار خطا میشوند و بنابراین فقط میتوانند الگوریتمهایی با پیچیدگی محدود اجرا کنند."
با استفاده از رایانههای معمولی، دو محقق روشی را توسعه دادند که تقریباً میتواند رفتار کلاس خاصی از الگوریتمها را که به عنوان الگوریتمهای کوانتومی متغیر شناخته میشوند، شبیه سازی کند که روشهایی برای تعیین کمترین حالت انرژی یا حالت پایه یک سیستم کوانتومی است. QAOA یکی از نمونههای مهم از الگوریتمهای کوانتومی است که محققان معتقدند از رایجترین کاندیداها برای مزیت کوانتومی در رایانههای کوانتومی کوتاه مدت هستند.
این رویکرد بر اساس این ایده است که ابزارهای مدرن یادگیری ماشین به عنوان مثال مواردی که در یادگیری بازیهای پیچیده مانند Go به کار میرود، میتواند برای یادگیری و شبیه سازی عملکردهای داخلی یک کامپیوتر کوانتومی نیز استفاده شود. ابزار اصلی این شبیه سازیها حالتهای کوانتومی شبکه عصبی هستند. یک شبکه عصبی مصنوعی که Carleo در سال ۲۰۱۶ با ماتیاس ترویر توسعه داد و اکنون برای اولین بار برای شبیه سازی QAOA استفاده شد. نتایج بدست آمده محاسبات کوانتومی محسوب میشوند و معیار جدیدی برای توسعه آینده سخت افزار کوانتومی تعیین میکنند.
کارلئو میگوید: "کار ما نشان میدهد QAOA که بر روی رایانههای کوانتومی فعلی و کوتاه مدت اجرا میشود، میتواند با دقت خوب در رایانههای کلاسیک نیز شبیه سازی شود. با این حال، این بدان معنا نیست که الگوریتمهای کوانتومی کاربردی که میتوانند در پردازندههای کوانتومی کوتاه مدت اجرا شوند، میتوانند به طور کلاسیک شبیه سازی شوند. در واقع، ما امیدواریم که رویکرد ما به عنوان راهنمایی برای طراحی الگوریتمهای کوانتومی جدید باشد که هم برای رایانههای کلاسیک مفید و هم شبیه سازی آنها دشوار است."
بیشتر بخوانید
انتهای پیام/