دو فیزیکدان راهی را برای انجام الگوریتم‌های سخت محاسبات کوانتومی بر روی رایانه‌های سنتی پیدا کرده اند.

به گزارش خبرنگار حوزه دریچه فناوری گروه فضای مجازی باشگاه خبرنگاران جوان، به نقل از actu.epfl.ch، دو فیزیکدان از EPFL و دانشگاه کلمبیا، روشی را برای شبیه سازی الگوریتم بهینه سازی تقریبی کوانتومی با استفاده از رایانه سنتی معرفی کرده اند. به جای اجرای الگوریتم بر روی پردازنده‌های کوانتومی پیشرفته، رویکرد جدید از یک الگوریتم کلاسیک یادگیری ماشین استفاده می‌کند که رفتار کامپیوتر‌های کوانتومی نزدیک مدت را شبیه سازی می‌کند. مقاله منتشر شده در Nature Quantum Information، توسط جوزپه کارلو، پروفسور EPFL و ماتیا مدیدوویچ دانشجوی کارشناسی ارشد دانشگاه کلمبیا و موسسه Flatiron در نیویورک، راهی را برای اجرای یک الگوریتم پیچیده محاسبات کوانتومی بر روی رایانه‌های سنتی به جای رایانه‌های کوانتومی نشان می‌دهد.

پردازنده‌های کوانتومی

نرم افزار QAOA  چیست و چه کاربردی دارد؟

"نرم افزار کوانتومی" خاصی که دانشمندان در نظر دارند به عنوان الگوریتم بهینه سازی تقریبی کوانتومی (QAOA) شناخته می‌شود و برای حل مسائل بهینه سازی کلاسیک در ریاضیات استفاده می‌شود. اساساً این نرم افزار راهی برای انتخاب بهترین راه حل برای یک مشکل از مجموعه راه حل‌های ممکن است. کارلئو می‌گوید: "علاقه زیادی به درک این موضوع وجود دارد که چه مشکلاتی را می‌توان با رایانه کوانتومی به طور موثر حل کرد و QAOA یکی از برجسته‌ترین نامزد‌ها است. speedup، افزایش سرعت پیش بینی شده‌ای است که می‌توانیم به جای رایانه‌های معمولی با رایانه‌های کوانتومی به دست آوریم. بدیهی است که QAOA تعدادی حامی از جمله گوگل دارد که چشم انداز خود را بر روی فناوری‌های کوانتومی و محاسبات در آینده نزدیک متمرکز کرده اند. در سال ۲۰۱۹ آن‌ها Sycamore، پردازنده کوانتومی ۵۳ کیوبیتی را ایجاد کردند. جالب است بدانید تکمیل یک ابر رایانه کلاسیک ۱۰ هزار سال طول می‌کشد، اما Sycamore همین کار را در ۲۰۰ ثانیه انجام داد."

گوگل

این دو دانشمند در مطالعه خود به یک مسئله کلیدی در این زمینه پرداختند؛ آیا الگوریتم‌های اجرا شده بر روی رایانه‌های کوانتومی فعلی و کوتاه مدت می‌توانند مزایای قابل توجهی نسبت به الگوریتم‌های کلاسیک برای کار‌های مورد علاقه داشته باشند؟ کارلئو می‌گوید: "اگر بخواهیم به این سوال پاسخ دهیم، ابتدا باید محدودیت‌های محاسبات کلاسیک را در شبیه سازی سیستم‌های کوانتومی درک کنیم، زیرا نسل فعلی پردازنده‌های کوانتومی در شرایطی کار می‌کنند که هنگام اجرای نرم افزار کوانتومی دچار خطا می‌شوند و بنابراین فقط می‌توانند الگوریتم‌هایی با پیچیدگی محدود اجرا کنند."

با استفاده از رایانه‌های معمولی، دو محقق روشی را توسعه دادند که تقریباً می‌تواند رفتار کلاس خاصی از الگوریتم‌ها را که به عنوان الگوریتم‌های کوانتومی متغیر شناخته می‌شوند، شبیه سازی کند که روش‌هایی برای تعیین کمترین حالت انرژی یا حالت پایه یک سیستم کوانتومی است. QAOA یکی از نمونه‌های مهم از الگوریتم‌های کوانتومی است که محققان معتقدند از رایج‌ترین کاندیدا‌ها برای مزیت کوانتومی در رایانه‌های کوانتومی کوتاه مدت هستند.

رایانه کوانتومی

رویکرد محققان بر چه اساسی شکل گرفته است؟

این رویکرد بر اساس این ایده است که ابزار‌های مدرن یادگیری ماشین به عنوان مثال مواردی که در یادگیری بازی‌های پیچیده مانند Go به کار می‌رود، می‌تواند برای یادگیری و شبیه سازی عملکرد‌های داخلی یک کامپیوتر کوانتومی نیز استفاده شود. ابزار اصلی این شبیه سازی‌ها حالت‌های کوانتومی شبکه عصبی هستند. یک شبکه عصبی مصنوعی که Carleo در سال ۲۰۱۶ با ماتیاس ترویر توسعه داد و اکنون برای اولین بار برای شبیه سازی QAOA استفاده شد. نتایج بدست آمده محاسبات کوانتومی محسوب می‌شوند و معیار جدیدی برای توسعه آینده سخت افزار کوانتومی تعیین می‌کنند.

محاسبات کوانتومی

کارلئو می‌گوید: "کار ما نشان می‌دهد QAOA که بر روی رایانه‌های کوانتومی فعلی و کوتاه مدت اجرا می‌شود، می‌تواند با دقت خوب در رایانه‌های کلاسیک نیز شبیه سازی شود. با این حال، این بدان معنا نیست که الگوریتم‌های کوانتومی کاربردی که می‌توانند در پردازنده‌های کوانتومی کوتاه مدت اجرا شوند، می‌توانند به طور کلاسیک شبیه سازی شوند. در واقع، ما امیدواریم که رویکرد ما به عنوان راهنمایی برای طراحی الگوریتم‌های کوانتومی جدید باشد که هم برای رایانه‌های کلاسیک مفید و هم شبیه سازی آن‌ها دشوار است."


بیشتر بخوانید


انتهای پیام/

اخبار پیشنهادی
تبادل نظر
آدرس ایمیل خود را با فرمت مناسب وارد نمایید.
نظرات کاربران
انتشار یافته: ۱
در انتظار بررسی: ۰
Iran (Islamic Republic of)
ناشناس
۲۲:۳۱ ۰۶ مهر ۱۴۰۰
اگه واقعا کامپیوترا بتونن کوانتومی بشن همه مشکلات حله حتی سرطان
آخرین اخبار