کامپیوتر کوانتومی چیست؟ – به زبان ساده

۲۴۶۶ بازدید
آخرین به‌روزرسانی: ۱۶ بهمن ۱۴۰۳
زمان مطالعه: ۲۸ دقیقه
دانلود PDF مقاله
کامپیوتر کوانتومی چیست؟ – به زبان سادهکامپیوتر کوانتومی چیست؟ – به زبان ساده

کامپیوتر کوانتومی وسیله‌ای است که با بکارگیری یک سری مفاهیم کوانتومی مانند اصل برهم‌نهی و درهم‌تنیدگی، سرعت و قدرت پردازش بالاتری برای انجام محاسبات و عملیات منطقی در مقایسه با کامپیوترهای معمولی ارائه می‌دهد. این کامپیوترها با استفاده از کیوبیت به‌جای بیت، می‌توانند برخی از محاسبات و چالش‌های خارج از توان ابرکامپیوترها را حل کنند. مطالعات در این زمینه با رویکرد استفاده از این کامپیوترها در کنار انواع دیگر (و نه جایگزینی به جای آن‌ها) در حال انجام است. در این مطلب از مجله فرادرس قصد داریم تا با زبانی ساده توضیح دهیم که یک کامپیوتر کوانتومی چیست و چگونه کار می‌کند.

فهرست مطالب این نوشته
997696

به همین منظور در اولین بخش سعی کرده‌ایم به این سوالات به‌صورت کلی پاسخ دهیم و مروری بر علت پیدایش و روند توسعه کامپیوتر کوانتومی داشته باشیم. سپس مطلب را با بیان سه تفاوت اصلی کامپیوتر کوانتومی و کلاسیکی شروع می‌کنیم که شامل استفاده از کیوبیت به‌جای بیت، مقایسه تعداد گیت‌های منطقی پایه و جهت انجام عملیات منطقی است. همچنین در ادامه، اصول کوانتومی حاکم بر عملکرد یک کامپیوتر کوانتومی شامل در‌هم‌تنیدگی، برهم‌نهی، ناهمدوسی و تداخل را توضیح می‌دهیم و پس از اینکه کیوبیت و تفاوت آن با بیت را کاملا توضیح دادیم، به معرفی انواع کیوبیت‌ها و بیان ویژگی‌های هر کدام خواهیم پرداخت. بخش‌های پایانی این نوشته به معرفی سخت افزار و نرم‌افزار کوانتومی، معروف‌ترین کامپیوترهای کوانتومی جهان و کاربرد کامپیوترهای کوانتومی اختصاص دارد.

کامپیوتر کوانتومی چیست و چگونه کار می‌کند؟

ویژگی مهم کامپیوتر کوانتومی در استفاده از کیوبیت‌ها به‌جای بیت‌‌‌های معمولی با دو حالت 00 یا 11 است. هر سیستم کوانتومی دو حالته‌ای مانند اسپین الکترون، یون‌های به دام افتاده یا نور قطبیده می‌تواند به‌عنوان کیوبیت برای ساخت کامپیوتر کوانتومی استفاده شود. کیوبیت‌ها علاوه بر حالت 00 و 11، می‌توانند در حالت جدیدی به نام «حالت برهم‌نهی» (ترکیبی از 00 و 11) نیز قرار بگیرند. این ویژگی همراه با درهم‌تنیدگی کوانتومی موجب شده است تا بتوانیم در یک کامپیوتر کوانتومی اطلاعات و داده‌های بیشتری را به‌صورت تصاعدی پردازش کنیم.

در یک کامپیوتر کوانتومی تا زمانی که یک جفت کیوبیت‌ درهم‌تنیده باشند، هر دو همزمان در حالتی به نام حالت برهم‌نهی قرار دارند. به محض اینکه یکی از این دو کیوبیت اندازه‌گیری شود، برهم‌نهی کوانتومی از بین می‌رود. در نتیجه موقعیت کیوبیت اندازه‌گیری نشده کاملا مخالف موقعیت کیوبیت اندازه‌گیری شده فرض می‌شود. برای مثال اگر اولی در حالت 00 مشاهده شود، دومی قطعا در حالت 11 است. بنابراین یک کامپیوتر کوانتومی قادر است اطلاعات را به‌صورت آنی و با سرعتی بیشتر از سرعت نور منتقل کند.

تصویری از یک ابزار الکترونیکی با اجزایی به رنگ طلایی

مروری بر روند توسعه کامپیوتر‌های کوانتومی

یکی از عواملی که باعث پیوند کامپیوتر و کوانتوم شد، کوچک‌تر شدن ابعاد اجزایی مانند پردازنده‌های محاسباتی بود. با وجود پیشرفت‌های شگفت‌انگیز در کارایی و سرعت این قطعات، مسائل پیچیده‌ای وجود دارند که حل آن‌ها از عهده هیچ‌ یک از ابرکامپیوترهای موجود بر نمی‌آید. همچنین، یک مشکل اساسی‌تر در روند توسعه و ساخت تراشه‌ها، کوچک شدن ابعاد ترانزیستورها است. ترانزیستور به زبان ساده نوعی کلید الکترونیکی است که عمل ذخیره‌سازی و پردازش را در کامپیوترهای معمولی انجام می‌دهد. می‌دانیم حرکت الکترون‌ها از یک مکان به مکان دیگر موجب برقراری جریان الکتریکی می‌شود. بنابراین هر مسیری که به نوعی از حرکت الکترون‌ها در یک راستای مشخص جلوگیری کند، یک کلید یا Switch محسوب می‌شود.

از طرفی با توجه به اینکه در ساختارهای زیر ۱۰ نانومتر، ابعاد ترانزیستورها به ابعاد اتمی نزدیک می‌شود و در این ابعاد، قوانین فیزیک کوانتومی نمود بیشتری پیدا می‌کنند، پس با کوچکتر شدن ترانزیستورها، فیزیک کوانتومی قواعد بازی را عوض می‌کنند. در این شرایط یک الکترون‌ می‌تواند طبق شکل زیر از یک ترانزیستور به ترانزیستور دیگر تونل‌زنی انجام دهد، که این پدیده برای یک تراشه محاسباتی، امر مطلوبی نیست. اما این چالش باعث نشد تا بگوییم دنیای پردازنده‌ها به انتهای خود نزدیک شده است. راه‌حل پیشنهادی این بود که محاسبات را از دنیای کلاسیک به دنیای کوانتوم بیاوریم.

تصویری از شخصی که در حال بالا رفتن از یک تپه است.
تونل‌زنی کوانتومی (برای مشاهده تصویر در ابعاد بزرگتر، روی آن کلیک کنید)

با نگاهی گذرا به روند پیشرفت علوم کامپیوتر و محاسبات، متوجه می‌شویم که در حال حاضر کامپیوترهای کوانتومی به گزینه‌ای جدی برای انجام محاسبات تبدیل شده‌اند. این تکنولوژی بر اساس مطالعات دو فیزیکدان و محقق شرکت «آی بی ام» (IBM) به نام‌های «رالف لاندائور» (Rolf Landauer) و «کارلس بنت» (Charles H. Bennett) پایه‌گذاری شد. لاندائور در سال ۱۹۶۰ مطرح کرد که اطلاعات ماهیتی فیزیکی دارند و با توجه به قوانین فیزیکی می‌توانند تغییر کنند. نتیجه این ایده لاندائور این بود که کامپیوترها، به علت دست‌کاری و تغییر اطلاعات (بیت‌ها) باعث می‌شوند اتلاف انرژی داشته باشیم. دلیل گرم شدن قسمت‌های پردازشی کامپیوتر، حتی اگر عملیات سنگینی انجام نداده باشند، همین نکته است.

بنت در سال‌های بعد نشان داد که اگر کامپیوترها بتوانند عملیات پردازش را به شکلی برگشت‌پذیر انجام دهند، می‌توانیم از این اتلاف انرژی تا حد زیادی جلوگیری کنیم. برگشت‌پذیر بودن محاسبات به این معنا است که با داشتن خروجی، بتوانیم به اطلاعات ورودی دست پیدا کنیم. راه‌حل این مسئله این است که از گیت‌های برگشت‌پذیر استفاده کنیم. در نهایت، «دیوید دویچ» (David Deutsch) یکی از تاثیرگذارترین افراد در توسعه محاسبات کوانتومی، مبانی نظری و تئوری یک کامپیوتر کوانتومی را تشریح کرد.

در مجموع، کامپیوتر کوانتومی نوعی تکنولوژی جدید کامپیوتری است که با بکارگیری برخی از اصول کوانتومی مانند اصل برهم‌نهی، درهم‌تنیدگی و تداخل قابلیت انجام محاسبات پیچیده‌تری را با سرعت خیلی بالاتر ارائه می‌دهد. با وجود اینکه در محاسبات کوانتومی هم از سیستم دو حالتی استفاده می‌شود، اما نحوه پردازش اطلاعات در این کامپیوترها متفاوت از نوع کلاسیکی یا کامپیوترهای معمولی است. برای اینکه بهتر متوجه شویم مبنای محاسبات کوانتومی در یک کامپیوتر کوانتومی چیست، اولین قدم یادگیری چهار اصل مهم مکانیک کوانتوم در این محاسبات است. سپس باید با مفهوم کیوبیت و تفاوت آن با بیت‌های معمولی آشنا شویم که موضوع بخش‌های بعدی است.

چگونه با فرادرس یاد بگیریم کامپیوتر کوانتومی چیست؟

پیش از شروع مباحث دیگر، در این بخش چند فیلم آموزشی از مجموعه فرادرس که با موضوع محاسبات کوانتومی تهیه شده است، به شما معرفی می‌شود. در صورت علاقه به یادگیری از طریق مشاهده فیلم، استفاده از این دوره‌ها می‌تواند برای شما بسیار مفید باشد و در نتیجه، بهتر متوجه خواهید شد که یک کامپیوتر کوانتومی چیست و چگونه کار می‌کند:

  1. فیلم آموزش رایگان کامپیوتر کوانتومی چیست؟ + نحوه کار و ویژگی‌ها فرادرس
  2. فیلم آموزش محاسبات کوانتومی فرادرس
  3. فیلم آموزش سیستم های کوانتومی درهم تنیده فرادرس
  4. فیلم آموزش نرم افزار متمتیکا – حل محاسبات کوانتومی با Mathematica فرادرس

تفاوت کامپیوتر معمولی با کامپیوتر کوانتومی چیست؟

برای اینکه بهتر متوجه شویم یک کامپیوتر کوانتومی چیست و چگونه کار می‌کند، ابتدا باید کامپیوترهای معمولی را بشناسیم که در مقام مقایسه با کامپیوتر کوانتومی، می‌توانیم آن‌ها را کامپیوتر کلاسیکی هم بنامیم. جدول زیر سه تفات مهم کامپیوتر کلاسیکی و کامپیوتر کوانتومی را نشان می‌دهد:

کامپیوتر کلاسیکیکامپیوتر کوانتومی
ابعاد بیتیک بعدی (بیت)سه بعدی (کیوبیت)
تعداد گیت‌های منطقیسه عددشش عدد
جهت عملیات منطقیبرگشت‌ناپذیربرگشت‌پذیر

در ادامه این بخش به توضیح بیشتر این تفاوت‌ها خواهیم پرداخت. از دستگا‌ه‌های پانچ کارت قدیمی گرفته تا ابرکامپیوترهای مدرن، تمام کامپیوترهای کلاسیکی به یک شکل عمل می‌کنند. روند انجام محاسبات در این کامپیوترها به‌صورت متوالی است و ذخیره‌سازی داده‌ در آن‌ها توسط بیت‌های باینری یا دودویی انجام می‌شود، به این صورت که هر بیت نشان‌دهنده یک 00 یا یک 11 است. ترکیب این بیت‌ها در قالب کدهای باینری یا دست‌کاری ‌آن‌ها با استفاده از عملگرهای منطقی، به ما این امکان را می‌دهد که از کامپیوترهای کلاسیکی برای انجام محاسبات پیشرفته استفاده کنیم.

این در حالی است که یک کامپیوتر کوانتومی بر اساس اصول مکانیک کوانتومی کار می‌کند. این اصول توصیف کننده رفتار متفاوت ذرات زیراتمی در مقایسه با فیزیک ذراتی در ابعاد بزرگتر است. در سطوح زیراتمی، هر سیستمی یک سیستم کوانتومی محسوب می‌شود. کامپیوتر کوانتومی به‌جای بیت از بیت کوانتومی یا کیوبیت استفاده می‌کند. اگر هر بیت را به‌عنوان یک ساختار یک بعدی در نظر بگیریم، اولین و بنیادی‌ترین تفاوت کامپیوتر کوانتومی و کلاسیکی در این است که کیوبیت دارای ساختاری سه بعدی به شکل زیر است:

تصویری از چند ذره با نوشته صفر و یک و یک کره
برای مشاهده تصویر در ابعاد بزرگتر، روی آن کلیک کنید.

بیت کلاسیکی یا معمولی همواره در یکی از دو حالت یا دو قطب 00 یا 11 قرار دارد. اما در مورد کیوبیت، اگر جهت بالا را به‌عنوان 00 و جهت پایین را به‌عنوان 11 در نظر بگیریم، تا زمانی که اندازه‌گیری یا مشاهده انجام نشود، کیوبیت می‌تواند در هر نقطه‌ای روی سطح یک کره ۳۶۰ درجه به شکل بالا (کره بلوخ) قرار بگیرد. اگر بخواهیم موقعیت دقیق کیوبیت را روی کره بلوخ نشان دهیم، باید ترکیبی از حالت‌های 00 و 11 که در مکانیک کوانتومی با 0|0\rangle و 1|1\rangle نمایش داده می‌شوند را پیدا کنیم. ا

تفاوت دوم این دو نوع کامپیوتر در این است که این بیت‌ها یا کیوبیت‌ها چگونه پردازش می‌شوند. در یک کامپیوتر معمولی، اطلاعات بیت‌ها بر اساس برنامه یا کد کامپیوتری داده شده به آن پردازش می‌شود. بنابراین ورودی به پردازنده وارد می‌شود و خروجی بر اساس قوانین پردازنده تولید می‌شود. اصولا سه گیت پایه داریم که تمام محاسبات کلاسیکی بر مبنای ترکیب آن‌ها انجام می‌شود تا خروجی حاصل شود. این گیت‌ها عبارت‌اند گیت AND، گیت OR و گیت NOT. حالا برای اینکه روند انجام چنین فرآیندی در یک کامپیوتر کوانتومی را بهتر درک کنید، این فرض را در نظر داشته باشید که عملیات پردازش در کامپیوتر کلاسیکی شبیه انجام بازی شطرنج با مهره‌هایی است که همه توانایی یک سرباز را دارند.

اما در کامپیوتر کوانتومی شش گیت پایه داریم که عبارت‌اند از گیت پاولی X، گیت پاولی Y، گیت پاولی Z، گیت هادمارد، گیت SWAP و گیت CNO. همچنین یکی از مهم‌ترین اصول کوانتومی یعنی درهم‌تنیدگی را داریم که باعث می‌شود این گیت‌ها به هم متصل شوند. بنابراین اگر به بازی شطرنجی که برای کامپیوتر کلاسیکی توصیف کردیم، بازگردیم، در مورد کامپیوتر کوانتومی برای تمام مهره‌ها امکانات وزیر را در اختیار داریم. پس دومین تفاوت این دو کامپیوتر در گیت‌های پایه‌ای است که برای انجام عملیات پردازش بکار می‌برند.

آخرین تفاوت این دو کامپیوتر، در بازدهی منطقی محاسبات آن‌ها است. اگر دقت کرده باشید، زمانی که با یک کامپیوتر کلاسیکی زیاد کار می‌کنید، صدای فن یا گرم شدن کامپیوتر را احساس خواهید کرد. پردازش در کامپیوترهای کلاسیکی همراه با اتلاف اطلاعات در قالب گرما است. علت این است که گیت‌های منطقی در این کامپیوترها در یک جهت عمل می‌کنند، یعنی زمانی که محاسبات در یک گیت انجام می‌شود، نمی‌توانید خروجی را در جهت عکس روی گیت اعمال کنید تا ورودی اولیه را به‌دست آورید.

اما گیت‌های کوانتومی دو جهتی عمل می‌کنند، به این معنا که می‌توان هر خروجی را در جهت معکوس روی گیت اعمال کرد تا به ورودی اولیه رسید. پس عملگرهای محاسبات کلاسیکی یک جهته و برگشت‌ناپذیر‌اند، در حالی که عملگرهای کوانتومی دو جهته و برگشت‌پذیر هستند. این ویژگی عملگرهای کوانتومی در کنار دو ویژگی‌ متمایز دیگری که توضیح دادیم، باعث می‌شود اطلاعات خیلی بیشتری در هر عملیات پردازش شود و در نتیجه سرعت بالاتری برای این کامپیوترها داشته باشیم.

اصول کوانتومی حاکم بر عملکرد یک کامپیوتر کوانتومی چیست؟

درک بهتر محاسبات کوانتومی و نحوه عملکرد یک کامپیوتر کوانتومی زمانی میسر می‌شود که با اصول کوانتومی حاکم بر آن آشنا باشید. این اصول عبارت‌اند از:

  • «برهم‌نهی» (Superposition)
  • «درهم‌تنیدگی» (Entanglement)
  • «ناهمدوسی» (Decoherence)
  • «تداخل» (Interference)

در ادامه این بخش هر کدام این موارد را توضیح می‌دهیم. در کنار این اصول، تعاریف دیگری مانند تعریف «ذرات کوانتومی» (Quantum Particles) نیز مهم هستند. ذرات کوانتومی، کوچکترین اجزای سازنده جهان فیزیکی محسوب می‌شوند. فوتون‌ها، الکترون‌ها، یون‌های به دام افتاده و اتم‌ها همگی نمونه‌هایی از ذرات کوانتومی محسوب می‌شوند.

اصل برهم‌نهی در مکانیک کوانتومی چیست؟

ابتدا توضیح می‌دهیم اثر برهم‌نهی در تعامل کیوبیت‌ها و در نتیجه، عملکرد یک کامپیوتر کوانتومی چیست. برهم‌نهی حالتی است که در آن یک ذره یا سیستم کوانتومی می‌تواند نه‌تنها یک احتمال، بلکه ترکیبی از چندین احتمال را نشان دهد. در تصویر زیر ملاحظه می‌کنید که دیدگاه فیزیک کوانتوم با در نظر گرفتن اصل بر‌هم‌نهی، چه تفاوتی با دیدگاه فیزیک کلاسیک دارد.

در این تصویر نتایج حاصل از پرتاب یک سکه از دید کوانتومی و کلاسیکی بررسی شده است و طبق آن، دید کلاسیکی با احتمال ۱۰۰٪ می‌‌گوید که یا سکه زیر است و یا رو. اما دید کوانتومی می‌گوید وضعیت نهایی سکه یک ترکیب خطی است از مجموع ۵۰٪ احتمال رو و ۵۰٪ احتمال زیر.

تصویری از چند قرص نارنجی و سبز
اصل برهم‌نهی و تفاوت دیدگاه کوانتومی و کلاسیکی در مثال پرتاب سکه (برای مشاهده تصویر در ابعاد بزرگتر، روی آن کلیک کنید)

در حقیقت دیدگاه کوانتومی حالتی را که در آن سکه در هوا معلق و در حال چرخش است، نیز در نظر می‌گیرد. پس پیش از اندازه‌گیری یا مشاهده نهایی، برهم‌نهی کوانتومی اجازه می‌دهد تا حالت کوانتومی سکه ترکیب خطی از دو یا تعداد بیشتری از حالت‌های کلاسیکی باشد. بنابراین حالت برهم نهی، حالت قطعی و نهایی در این اندازه‌گیری نیست. این تعریف کلی اصل برهم‌نهی در فیزیک کوانتوم است. اما باید ببینیم کاربرد این اصل در یک کامپیوتر کوانتومی چیست. زمانی که یک کیوبیت در حالت صفر یا یک قرار دارد، تفاوت چندانی ایجاد نمی‌کند، اما اگر در حالتی به نام حالت برهم‌نهی قرار داشته باشد، می‌تواند در افزایش سرعت محاسبات کوانتومی نقش مهمی ایفا کند.

حالت برهم‌نهی ترکیبی از تمام حالت‌های ممکن برای یک کیوبیت، یعنی ترکیبی از 00 و 11 است. به این ترتیب، گروهی از کیوبیت‌هایی که در حالت برهم‌نهی قرار دارند، می‌توانند یک فضای محاسباتی چند بعدی و پیچیده‌ بسازند. چنین فضایی می‌تواند مسائل پیچیده محاسباتی را به روش‌های جدید حل کند. همچنین برهم‌نهی کیوبیت‌ها باعث می‌شود در کامپیوترهای کوانتومی ویژگی مهمی به نام موازی‌سازی ذاتی داشته باشیم. در نتیجه یک کامپیوتر کوانتومی این قابلیت را دارد که تعداد خیلی خیلی زیادی داده را همزمان پردازش کند.

تصویری از چندت ذره قرمز و آبی
اصل برهم‌نهی و تفاوت بیت و کیوبیت (برای مشاهده تصویر در ابعاد بزرگتر، روی آن کلیک کنید)

تصویر بالا تفاوت بیت معمولی و بیت کوانتومی را در حالت‌ برهم‌نهی نشان می‌دهد. اگر به بیت معمولی دقت کنید، این نوع بیت با احتمال ۱۰۰٪ یا در حالت 00 است یا در حالت 11. اما یک کیوبیت در حالت برهم‌نهی و پیش از اندازه‌گیری، می‌تواند همزمان هم 00 و هم 11 باشد (با احتمال مشخص برای هر کدام). برای نشان دادن حالت یک کیوبیت از یک تابع موج ریاضیاتی به نام ψ\psi (روش نامگذاری دیراک در کوانتوم) استفاده می‌شود. ψ\psi احتمالی را توصیف می‌کند که یک کیوبیت می‌تواند در یک حالت خاص قرار بگیرد. برای مثال احتمال اینکه کیوبیت در حالت برهم‌نهی باشد، برابر است با:

ψsup.=α0+β1\psi _ {sup.}= \alpha |0\rangle + \beta |1\rangle

معمولا ضرایب α\alpha و β\beta اعداد مختلط هستند. پس از اندازه‌گیری، طبق شکل با احتمالی به اندازه α2|\alpha|^2 حالت 0|0\rangle و با احتمالی برابر با β2| \beta |^2 حالت 1|1\rangle را دریافت خواهیم کرد.

درهم‌تنیدگی کوانتومی چیست؟

درهم‌تنیدگی در کوانتوم فرآیندی است که در آن چند ذره کوانتومی با قدرت بسیار زیادی در مقایسه با آنچه که احتمالات پیش‌بینی می‌کنند، به هم مرتبط یا همبسته می‌شوند. این همبستگی به گونه‌ای است که نمی‌توانیم حالت کوانتومی هر کدام از این ذرات را مستقل از سایر ذرات بررسی کنیم. فرادرس، یک دوره آموزشی جامع را با عنوان «فیلم آموزش سیستم های کوانتومی درهم تنیده» تهیه کرده است که می‌تواند مسیر یادگیری این مفهوم را برای شما هموار کند. لینک مشاهده این فیلم در ادامه آورده شده است:

زمانی که دو سیستم کوانتومی در هم‌تنیده می‌شوند، اگر یکی از این دو را بتوان مشاهده یا اندازه‌گیری کرد، حالت دیگری نیز کاملا با اولین سیستم همبسته است، صرف‌نظر از اینکه چقدر از آن فاصله داشته باشد. برای مثال فرض کنید یک سیستم کوانتومی مانند دو الکترون درهم‌تنیده دارید. اگر یکی از الکترون‌های چنین سیستمی در حالتی با اسپین بالا مشاهده شود، الکترون درهم‌تنیده آن همواره در حالتی با اسپین پایین خواهد بود.

تصویری از ارتباط دو شخص
ارسال اطلاعات بین دو ذره آلیس و باب با استفاده از درهم‌تنیدگی (برای مشاهده تصویر در ابعاد بزرگتر، روی آن کلیک کنید)

در مورد یک کامپیوتر کوانتومی، درهم‌تنیدگی به توانایی یک کیوبیت برای همبسته کردن حالت‌اش با سایر کیوبیت‌ها گفته می‌شود. سیستم‌های درهم‌تنیده به‌صورت ذاتی به هم متصل هستند. این اتصال به نحوی است که برای مثال، زمانی که یک پردازشگر کوانتومی فقط یک کیوبیت درهم‌تنیده را اندازه‌گیری می‌کند، بلافاصله اطلاعات سایر کیوبیت‌هایی که در آن سیستم درهم‌تنیده وجود دارند نیز تعیین می‌شود. به این ترتیب، اندازه‌گیری یک سیستم کوانتومی به معنای تغییر حالت آن از حالت برهم‌نهی کوانتومی به حالت دوتایی یا باینری یعنی یک 00 یا یک 11 است. 

چند ذره آبی و قرمز
نتایج اندازه‌گیری یک سیستم کوانتومی درهم‌تنیده (برای مشاهده تصویر در ابعاد بزرگتر، روی آن کلیک کنید)

اگر بخواهیم در مورد درهم‌تنیدگی دقیق‌تر فکر کنیم، این مفهوم فرم ویژه‌ای از برهم‌نهی کوانتومی محسوب می‌شود که در آن پس از اندازه‌گیری، خروجی‌ها بر اساس همبستگی قوی بین اجزای سیستم درهم‌تنیده تعیین می‌شوند. برای مثال، تصویر بالا دو کیوبیت درهم‌تنیده شده به نام aa و bb را نشان می‌دهد که پس از اندازه‌گیری، اگر aa قرمز باشد، bb حتما آبی است و اگر aa آبی مشاهده شود، bb حتما قرمز است.

ناهمدوسی کوانتومی چیست؟

تا اینجا آموختیم دو اصل کوانتومی مهم جهت درک بهتر نحوه عملکرد یک کامپیوتر کوانتومی چیست. ناهمدوسی فرآیندی است که در آن ذرات یا سیستم‌های کوانتومی دچار واپاشی یا تغییر شده و به حالت‌های مجزایی تبدیل می‌شوند که با قوانین فیزیک کلاسیک قابل‌اندازه‌گیری است. در بخش قبل توضیح دادیم که منظور ما از اندازه‌گیری در یک کامپیوتر کوانتومی چیست. گفتیم اندازه‌گیری یک سیستم کوانتومی یعنی تغییر حالت آن از یک برهم‌نهی از تمام حالت‌های ممکن به یکی از دو حالت کوانتومی صفر یا یک.

تصویری از دو حالت مختلف ارتباط برای دو شخص
همدوسی و ناهمدوسی در کوانتوم (برای مشاهده تصویر در ابعاد بزرگتر، روی آن کلیک کنید)

اما اگر به هر دلیلی سیستم کوانتومی به یک حالت غیرکوانتومی یا کلاسیکی تغییر حالت دهد، در این صورت ناهمدوسی داریم. برای مثال، در تصویر بالا مشاهده می‌کنید که در حالت ناهمدوسی حالت‌های سیستم کاملا مجزا شده‌اند در حالی که در همدوسی حالت‌ها از هم جدا نبودند. بنابراین باید دقت کنیم که حالت‌های باینری 00 یا 11، حالت‌های کلاسیکی محسوب نمی‌شوند و کوانتومی هستند. قطعا ناهمدوسی برای یک کامپیوتر کوانتومی مطلوب نیست، چون با کلاسیکی شدن حالت سیستم امکانات قبل وجود ندارد. ناهمدوسی ممکن است در اثر نویزهای مختلفی مانند دما یا نوسان ایجاد شود. از طرفی، ناهمدوسی اجازه می‌دهد یک کامپیوتر کوانتومی بتواند با یک کامپیوتر کلاسیکی ارتباط برقرار کند.

تداخل در کوانتوم چیست؟

تداخل در مکانیک کوانتوم پدیده‌ای است که از ماهیت موج‌گونه حالت‌های کوانتومی به‌وجود می‌آید. در بخش برهم‌نهی نشان دادیم که هر حالت کوانتومی دارای یک ضریب عددی مختلط به نام دامنه است. مجذور این دامنه، احتمال اندازه‌گیری یا مشاهده آن حالت را تعیین می‌کند. چنین اصولی در مکانیک کوانتوم اجازه می‌دهند تا بتوانیم احتمالات را با هدف افزایش شانس دریافت خروجی‌های موردنظر یا حذف احتمالات ناخواسته، دست‌ کاری کنیم. بنابراین در تداخل کوانتومی احتمال مشاهده خروجی‌های مختلف می‌تواند در اثر فازهای نسبی حالت‌های کوانتومی درگیر، افزایش یا کاهش پیدا کند.

زمانی که یک برهم‌نهی از حالت‌های کوانتومی داریم، فازهای نسبی (یا زاویه‌) بین این حالت‌ها است که تعیین می‌کند وضعیت مجموع دامنه‌ این حالات چگونه است. اگر دامنه‌ها یکدیگر را تقویت کنند، تداخل سازنده داریم. در غیر این صورت، تداخل ویرانگر است:

  • تداخل سازنده: احتمال بالاتری برای وقوع یک خروجی خاص به‌دست می‌آید.
  • تداخل ویرانگر: احتمال کمتری برای وقوع یک خروجی خاص به‌دست می‌آید.
تصویری از امواج و خطوط
تداخل کوانتومی سازنده و ویرانگر (برای مشاهده تصویر در ابعاد بزرگتر، روی آن کلیک کنید)

تداخل در یک کامپیوتر کوانتومی به این صورت است که حالت‌های کوانتومی درهم‌تنیده شده می‌توانند با هم برهم‌کنش کنند و در نتیجه، احتمالات جدیدی تولید شود. کیوبیت‌های درهم‌تنیده شده می‌توانند در یک حالت برهم‌نهی جمعی شبیه به امواج قرار بگیرند، به گونه‌ای که دامنه این امواج با هر یک از خروجی‌ها متناظر است. در حقیقت، این دامنه‌ها همان احتمالات خروجی‌هایی هستند که از اندازه‌گیری سیستم حاصل شده‌ است.

حالا شرایطی را فرض کنید که تعداد خیلی زیادی از این امواج داریم و در اثر برهم‌کنش قله‌ها و دره‌های این امواج، بخشی از آن‌ها یکدیگر را تقویت و برخی دیگر یکدیگر را حذف می‌کنند. در هر دو حالت، چه احتمالات هم را تقویت کرده و افزایش دهند و چه یکدیگر را حذف کنند یا کاهش دهند، نوعی تداخل داریم. الگوریتم‌های کوانتومی با بهره‌گیری از این اثر می‌توانند پاسخ‌های اشتباه در محاسبات را حذف کنند و در نتیجه با این روش، علاوه بر افزایش سرعت محاسبات کوانتومی پاسخ‌های صحیح  را با احتمال بیشتری به‌دست خواهیم آورد.

 کیوبیت چیست؟

همان‌طور که مبنای ذخیره‌سازی و پردازش داد‌ه‌ها در کامپیوترهای کلاسیکی بیت‌ها یا 00 و 11ها است، انتظار داریم در کامپیوترهای کوانتومی هم سیستم‌ مشابهی وجود داشته باشد. بیت‌های کلاسیکی در کامپیوترهای کلاسیکی مرسوم جای خود را به بیت‌های کوانتومی یا «کیوبیت» (Qubit) در کامپیوترهای کوانتومی می‌دهند. مزیت این جایگزینی این است که یک کامپیوتر کوانتومی با استفاده از این بیت‌‌های کوانتومی قادر است همزمان داده‌های خیلی بیشتری را در فرآیند برهم‌نهی کوانتومی رمزگذاری کند.

بنابراین یک کیوبیت یا یک بیت کوانتومی معادل است با واحد پایه اطلاعات در محاسبات کوانتومی، که به منظور رمزگذاری داده‌ها استفاده می‌شود. عملکرد کیوبیت کاملا با عملکرد همتای خود در کامپیوترهای کلاسیکی یعنی بیت‌های سنتی یا دودویی که برای رمزگذاری اطلاعات بکار می‌رفتند، معادل است. یعنی کیوبیت می‌تواند مانند بیت رفتار کرده و یک 00 یا یک 11 را ذخیره کند. علاوه‌بر این، کیوبیت می‌تواند به‌صورت همزمان یک ترکیب وزنی از 00 و 11 نیز باشد.

تصویری از بنجامین شوماخر فیزیکدان نظری
بنجامین شوماخر

واژه کیوبیت توسط یک فیزیکدان نظری آمریکایی به نام «بنجامین شوماخر» (Benjamin Schumacher) مطرح شد. به‌طور کلی، کیوبیت‌ها با اعمال تغییرات، دست‌کاری و اندازه‌گیری ذرات کوانتومی مانند فوتون‌ها، اتم‌های خنثی یا یون‌های به دام افتاده ایجاد می‌شوند. برای اینکه بتوانیم ذرات کوانتومی را دست‌کاری کنیم، لازم است کیوبیت‌ها تا حد امکان سرد شوند. سردسازی کیوبیت‌ها باعث می‌شود نویز حداقل شود و در نتیجه، از ارائه نتایج تقریبی که دقیق نیستند یا خطای ناشی از ناهمدوسی ناخواسته جلوگیری شود. همچنین می‌توان کیوبیت‌ها را با هدف مهندسی سیستم‌هایی که مانند یک ذره کوانتومی رفتار می‌کنند (برای مثال مدارهای ابررسانا) بکار برد. نکته مهم راجع‌به کاربرد کیوبیت‌ها در کامپیوترهای کوانتومی این است که علاوه‌بر پیروی از قواعد کوانتومی، باید بتوانند در یک برهم‌نهی کوانتومی وجود داشته باشند. این نکته باعث می‌شود بیت‌های کوانتومی تفاوت ویژه‌ای با بیت‌های کلاسیکی داشته باشند.

اگر بخواهیم بدانیم منشا مزیت ویژه یک کامپیوتر کوانتومی چیست، باید این تفاوت مهم را بدانیم که یک بیت کلاسیکی فقط می‌تواند در یکی از دو حالت 00 یا 11 وجود داشته باشد، اما یک کیوبیت علاوه‌بر این دو حالت، می‌تواند با بهره‌گیری از اصل برهم‌نهی کوانتومی در حالت سومی به نام برهم‌نهی نیز وجود داشته باشد. یک برهم‌نهی می‌تواند 00، 11 و تمام موقعیت‌هایی که همزمان بین 00 و 11 گرفته شده‌اند را نشان دهد. کیوبیت‌ها علاوه‌بر رمزگذاری سه موقعیت جداگانه، می‌توانند برای انتقال اطلاعات از یک سیستم باینری نیز بکار روند. در چنین سیستم‌هایی کلمه بیت به هر ماده یا فرآیندی گفته می‌شود که برای نمایش 00 یا 11 یا برای اندازه‌گیری آن بیت استفاده می‌شود.

ترکیب کیوبیت‌ها بر اساس اصل برهم‌نهی و به‌صورت تصاعدی است. در نتیجه با ترکیب کیوبیت‌ها مقیاس افزایش می‌یابد، به این صورت که طبق شکل زیر، برای 22 کیوبیت به 44 حالت نیاز است، برای 33 کیوبیت به 88 حالت، برای 44 کیوبیت به 1616 حالت و به همین ترتیب. با این وجود در انتهای محاسبات، هر کیوبیت تنها دارای یک تک بیت اطلاعات به‌عنوان خروجی است.

تصویری از چند جفت ذره آبی با جهت مشخص شده
برهم‌نهی چهار حالت برای دو کیوبیت (اسپین الکترون) (برای مشاهده تصویر در ابعاد بزرگتر، روی آن کلیک کنید)

در کنار امتیازات ویژه‌ای که کیوبیت به کمک اصول مکانیک کوانتومی ارائه می‌دهد، چالش‌هایی نیز در مورد آن وجود دارد. مهم‌ترین چالش در مسئله سردسازی این نوع از بیت‌ها است، چرا که لازم است تا کمی (کسری از یک درجه سانتی‌گراد) بالاتر از صفر مطلق سرد شوند. این دما از دمای فضای بیرون کامپیوتر کوانتومی سردتر است، در نتیجه فراهم کردن چنین شرایطی آسان نیست. چالش بعدی به اثر سردسازی روی ناهمدوسی کوانتومی ذارت کوانتومی مربوط است.

همچنین هر ذره کوانتومی در یک کامپیوتر کوانتومی دارای خاصیتی به نام همدوسی است، تا زمانی که به نحوی تحت کنترل باشد که بتواند به صورت یک کیوبیت عمل کند. اگر کیوبیتی این توانایی خود را از دست بدهد، آن را با ناهمدوسی توصیف می‌کنیم. در چنین شرایطی به سیستم‌های سرد کننده با قدرت بالا نیاز داریم تا حالتی از همدوسی برای داشتن کیوبیت‌های قابل کاربرد ایجاد کنند. البته حتی در خنک‌ترین شرایط هم سیستم‌های کیوبیت عموما مستعد شکست بر اثر ناهمدوسی هستند. در این زمینه پیشرفت‌های قابل توجهی با ظهور شاخه جدیدی به نام اصلاح خطای کوانتومی الگوریتمی به‌دست آمده است که قابلیت پایدارسازی سیستم‌های کوانتومی ضعیف قبلی را ارائه می‌دهند.

تصویری از یک کره بین امواج مختلف در زمینه تیره
برای مشاهده تصویر در ابعاد بزرگتر، روی آن کلیک کنید.

در انتهای این بخش با توجه به اینکه تا اینجا با مفاهیمی مانند درهم‌تنیدگی و کیوبیت تا حدی آشنا شده‌اید، می‌خواهیم ببینیم اصل درهم‌تنیدگی در یک کامپیوتر کوانتومی چگونه کار می‌کند. در یک کامپیوتر کوانتومی، این اصل به معنای درهم‌تنیدگی دو کیوبیت (یا هر دو ذره یا تعداد بیشتری از ذرات کوانتومی) است، به گونه‌ای که فارغ از فاصله بین ذرات، حالت هر ذره مستقل از سایر ذرات قابل توصیف نباشد. بنابراین هر زمان که دو کیوبیت درهم‌تنیده شوند، هر دو همزمان در حالت برهم‌نهی هم قرار دارند.

این شرایط تا زمانی برقرار است که یکی از آن‌ها اندازه‌گیری شود. به محض اینکه اندازه‌گیری یا مشاهده انجام شد، برهم‌نهی کوانتومی از بین می‌رود و آن کیوبیتی که اندازه‌گیری یا مشاهده نشده است، در موقعیتی مخالف موقعیت کیوبیت اندازه‌گیری شده فرض می‌شود. برای مثال، اگر نصف یک جفت کیوبیت درهم‌تنیده شده در حالت 11 مشاهده شود، حالت کیوبیت دیگر فورا برابر با 00 اندازه‌گیری می‌شود. این در حالی است که بیت‌‌های کلاسیکی درهم‌تنیده نمی‌شوند. بنابراین کیوبیت‌های کوانتومی در هم‌تنیده (نه کیوبیت‌های معمولی) می‌توانند اطلاعات را به‌صورت آنی و با سرعتی بیشتر از سرعت نور انتقال دهند و اثر درهم‌تنیدگی کوانتومی، افزایش قدرت مدارهای کوانتومی است.

تفاوت بیت و کیوبیت چیست؟

در این بخش توضیح می‌دهیم که اثر تفاوت بیت و کیوبیت روی عملکرد متمایز یک کامپیوتر کوانتومی چیست. در کامپیوترهای کلاسیکی، یک بیت به هر جزء از اطلاعات دوتایی گفته می‌شود که به‌صورت 00 یا 11 نوشته می‌شود. همچنین در این کامپیوترها، عموما بیت با یک پالس جریان یا ولتاژ نمایش داده می‌شود. در این سیستم‌‌ها، وقتی که هیچ جریانی نداریم، مدار در حالت خاموش یا OFF قرار دارد و چنین حالتی با 00 نشان داده می‌شود. به محض اینکه جریان برقرار شد، مدار روشن یا ON است و در حالت 11 هستیم.

بیت و بایت

بنابراین فرقی نمی‌کند در حال ضبط یک ویدئوی دیجیتالی هستید، در حال انیمیشن‌سازی یک مدل سه‌ بعدی هستید یا در حال محاسبه با یک اپلیکیشن محاسباتی، در تمام این موارد داده‌ها به‌صورت کدهای باینری یا دودویی 00 و 11 به نرم‌افزار منتقل می‌شوند. در نتیجه یک مجموعه بیت داریم که برای دسته‌بندی و درک بهتر آن‌ها از واحد بزرگتری به نام «بایت» (Byte) استفاده می‌شود. هر بایت از هشت بیت ساخته می‌شود که معادل است با حداقل تعداد بیت‌های موردنیاز جهت انتقال باینری سیگنالی با مشخصه متنی. رشته‌هایی طولانی از این 00 و 11ها می‌توانند برای برای ذخیره هر عدد، نماد و حروفی استفاده شوند. به طور مثال در قواعد کد «اسکی» (ASCII) رشته 10000011000001 برای نمایش AA و رشته 0110000101100001 برای نمایش aa به کار می‌رود.

پس هر سیستم دو حالته‌ای که بتوانیم حالت آن را فقط با یکی از دو موقعیت ممکن توصیف کنیم (برای مثال، بالا یا پایین، چپ یا راست، روشن یا خاموش)، می‌تواند جهت نمایش بیت استفاده شود. با اینکه مبنای تکنولوژی کامپیوترهای کوانتومی کدهای باینری است، اما داده‌‌های کوانتومی استخراج شده از یک سیستم کوانتومی مانند یک کیوبیت، به روش متفاوتی داده‌ها و اطلاعات را رمزنگاری می‌کنند. پژوهشگران این حوزه روش‌های مختلفی را جهت ایجاد کیوبیت‌ یا استفاده از سیستم‌های کوانتومی طبیعی به‌عنوان کیوبیت پایه‌گذاری کرده‌اند. با این وجود در اغلب موارد، کامپیوترهای کوانتومی برای جداسازی کیوبیت‌ها و جلوگیری از تداخل آن‌ها به سردسازی نیازمندند.

در تئوری، هر سیستم کوانتومی دو حالتی می‌تواند برای ساخت یک کیوبیت استفاده شود. زمانی یک سیستم کوانتومی دو حالتی است که بتوانیم ویژگی‌ها و خواص سیستمی خاصی از آن را در موقعیت‌های باینری اندازه‌گیری کنیم، برای مثال بالا یا پایین. البته از سیستم‌های کوانتومی چند حالته نیز با شرایط خاصی می‌توانیم برای تولید کیوبیت استفاده کنیم. یک سیستم کوانتومی چند حالته تا زمانی برای تولید کیوبیت بکار می‌رود که دو جنبه یا دو حالت از آن‌ به‌طور موثری از هم جدا شده باشند، به گونه‌ای که یک اندازه‌گیری باینری تولید شود.

همان‌طور که کامپیوترهای سنتی می‌توانند از انواع مختلفی از بیت‌ها مانند جریان الکتریکی، بار الکتریکی و حفره‌های ایجاد شده در کارت پانچ استفاده کنند، قابلیت استفاده از انواع مختلف بیت‌ها برای یک کامپیوتر کوانتومی نیز وجود دارد. البته برخی از انواع بیت‌ها به‌منظور کاربرد در عملکرد خاصی ممکن است مناسب‌تر باشند، به همین دلیل در یک کامپیوتر کوانتومی پیشرفته اغلب از ترکیبی از انواع بیت‌ها برای دست‌یابی به عملکردهای مختلف استفاده می‌شود.

تصویری از چند عدد صفر و یک با رنگ قرمز و آبی
تفاوت اندازه‌گیری حالت‌های مختلف برای کیوبیت و بیت

در حالی که هر بیت می‌تواند نشان‌دهنده یک 00 یا یک 11 باشد، یک کیوبیت می‌تواند یک 00، یک 11 یا یک برهم‌نهی از آن‌ها را نمایش دهد. برهم‌نهی می‌تواند هر سه حالت 00، 11 و تمام حالت‌های ممکن بین 00 و 11 را توصیف کند. در حقیقت اصل برهم‌نهی نمایشگر احتمالی از حالت‌های کیوبیت است. پس منشا تفاوت بیت و کیوبیت به اصل برهم‌نهی در کوانتوم و استفاده از مفاهیم احتمالات بازمی‌گردد.

در سطوح کوانتومی، احتمال کیوبیت در قالب یک تابع موج اندازه‌گیری می‌شود که از دامنه این احتمال برای رمزگذاری بیشتر از یک بیت داده می‌توان استفاده کرد. به این ترتیب، ترکیب چنین کیوبیتی با سایر کیوبیت‌ها در انجام محاسبات بسیار پیچیده مفید است. زمانی که مسائل پیچیده‌ای مانند فاکتورگیری یک عدد اول بسیار بزرگ، توسط یک کامپیوتر کوانتومی پردازش می‌شود، بیت‌های سنتی با نگه داشتن مقادیر زیادی اطلاعات در کنار هم قرار می‌گیرند. اما بیت‌های کوانتومی متفاوت عمل می‌کنند، این بیت‌ها فقط یک برهم‌نهی را نگه می‌دارند. به این ترتیب، یک کامپیوتر کوانتومی با استفاده از کیوبیت قادر است حجم خیلی بالاتری از داده را محاسبه و پردازش کند.

این بخش را با مثال ملموس‌تری از تفاوت بیت و کیوبیت به پایان می‌رسانیم. فرض کنید در مرکز یک مسیر مارپیچ ایستاده‌اید. برای فرار از این وضعیت، یک کامپیوتر سنتی ترکیبی از مسیرهای مختلف را به‌عنوان راه‌حل به شما پیشنهاد می‌دهد تا بتوانید راه خروج را پیدا کنید. این کامپیوتر با استفاده از بیت‌ها مسیرهای جدید را کشف کرده و همزمان این قدرت را دارد که به خاطر بسپارد کدام مسیر به خروج منتهی نشد.

در مقایسه، پردازش در یک کامپیوتر کوانتومی به‌گونه‌ای است که می‌تواند مانند یک پرنده دید کلی از این مسیر پیچیده به‌دست آورد و همزمان مسیرهای مختلف را نیز امتحان کند تا به مسیر درست برسد. کیوبیت‌ها به آزمایش همزمان مسیرهای مختلف نمی‌پردازند، بلکه در این کامپیوترها دامنه احتمالات کیوبیت‌ها اندازه‌گیری می‌شود تا خروجی صحیح محاسبه شود. عملکرد این دامنه‌‌ها مانند یک موج است، به این شکل که می‌توانند مانند امواج با هم تداخل یا هم‌پوشانی داشته باشند. هم‌پوشانی امواج غیرهمزمان، آسنکرون یا Asynchronous به‌طور موثری موجب حذف راه‌حل‌هایی می‌شود که مسئله را پیچیده می‌کند و در نتیجه، موج یا امواج همدوس نتیجه شده راه‌حل درست هستند.

انواع کیوبیت و تکنولوژی‌های کوانتومی

در بخش‌های قبل یاد گرفتیم کیوبیت چیست، چه تفاوتی با بیت دارد و اثر آن در عملکرد یک کامپیوتر کوانتومی چیست. همچنین اشاره کردیم که می‌توان از هر نوع سیستم دو حالته کوانتومی برای تولید کیوبیت استفاده کرد. آشناترین سیستم‌های دو حالته‌ای که در مکانیک کوانتوم می‌شناسیم، عبارت‌اند از اسپین الکترون و نور قطبیده شده. بر این اساس، انواع مختلفی از کیوبیت‌ها توسط پژوهشگران توسعه داده شده‌اند، به گونه‌ای که هر نوع برای کاربرد خاصی مناسب است و وظیفه ویژه‌ای دارد. انواع مختلف کیوبیت عبارت‌اند از:

  • کیوبیت‌های ابررسانا
  • یون‌های به دام افتاده
  • نقاط کوانتومی
  • فوتون‌ها
  • اتم‌‌های خنثی

نکته‌ مهم این است که هنوز روش ساخت بهینه‌ترین کامپیوتر کوانتومی ارائه نشده است و چندین کمپانی و گروه تحقیقاتی در حال بررسی انواع مختلف کیوبیت‌ هستند. در ادامه راجع‌به تکنولوژی انواع کیوبیت توضیحات مختصری ارائه می‌شود.

کیوبیت‌های ابررسانا

کیوبیت‌های ابررسانا یا Superconducting از موادی ساخته می‌شوند که دارای خاصیت ابررسانایی هستند. ابررسانایی خاصیتی است که در مواد خاصی (مانند جیوه و هلیوم) و در دماهای خیلی پایین مشاهده می‌شود. مقاومت این مواد در دماهایی کمتر از دمایی به نام دمای بحرانی برابر است با صفر. در نتیجه جریان الکتریکی عبوری از یک حلقه سیم ابررسانا به‌صورت نامحدود و بدون نیاز به منبع، برقرار است.

محاسبات کوانتومی ابررسانا معادل است با استفاده از یک کامپیوتر کوانتومی در مدارهای الکترونیکی ابررسانا. کیوبیت‌های ابررسانا توسط این مدارهای الکترونیکی ابررسانا که در دماهای کرایوژنیک کار می‌کنند، ساخته می‌شوند. در حقیقت، با توجه به خواص ابررسانایی، عملکرد صحیح این کیوبیت‌ها در دماهای خیلی پایین است. این نوع کیوبیت‌ها توسط سیگنال‌های ریزموج یا ماکروویو دست‌کاری می‌شوند و از این جهت مورد علاقه دانشمندان حوزه کامپیوتر کوانتومی محسوب می‌شوند که دارای همدوسی نسبتا قوی هستند. همچنین سرعت بالای این نوع کیوبیت‌ها در انجام و کنترل محاسبات از دیگر مزایای این کیوبیت‌ها است.

یون‌های به دام افتاده

دومین نوع از انواع کیوبیت که در این بخش معرفی می‌شود، یون‌های به دام افتاده یا Trapped ions هستند. با استفاده از تکنولوژی‌های پیشرفته لیزری، ذرات یونی به دام افتاده نیز می‌توانند به‌عنوان کیوبیت استفاده شوند. از این نوع کیوبیت در زمان‌های همدوسی طولانی یا در شرایطی که اندازه‌گیری‌های با اطمینان بالا موردنیاز است، استفاده می‌شود. با اضافه کردن یا کندن الکترون از اتم‌، اتم به یون تبدیل می‌شود. این اتم می‌تواند در داخل یک کاواک به وسیله پالس‌های لیزری به دام افتاده و در حالت خاصی قرار بگیرد.

دو میله فلزی نوک تیز در نزدیکی هم
نمایی از یک اتم به دام افتاده توسط پالس‌های لیزر در خلاء بسیار بالا

یک کامپیوتر کوانتومی ساخته شده بر پایه گیت‌های کوانتومی ابزاری است که داده‌‌‌های ورودی را دریافت و بر اساس یک عملیات منطقی واحد و از پیش تعریف شده، آن‌ها را منتقل می‌کند. چنین عملیاتی اغلب توسط یک مدار کوانتومی نمایش داده می‌شود. به این ترتیب یک کامپیوتر کوانتومی ساخته شده بر مبنای یون‌های به دام افتاده و بر پایه گیت کوانتومی، از کیوبیت‌هایی استفاده می‌کند که معادل‌اند با حالت‌های الکترونیکی اتم‌های باردار یا یون‌ها. برای ساخت تله‌هایی با این ابعاد جهت به دام افتادن یون‌ها لازم است از میدان‌های الکترومغناطیسی استفاده شود.

نقاط کوانتومی

«کوانتوم دات‌ها یا نقاط کوانتومی» (Quantum Dots) دسته دیگری از کیوبیت‌ها هستند. کوانتوم دات نوعی نیمه‌رسانا با ابعاد خیلی کوچک است که توانایی گرفتن یک تک الکترون و استفاده از آن به‌عنوان یک کیوبیت را دارد. کیوبیت‌های کوانتوم دات را می‌توان با استفاده از میدان مغناطیسی دست‌کاری‌ کرد. این نوع از کیوبیت‌ها از نظر سازگاری و قابلیت مقایسه با سایر فناوری‌های نیمه‌رسانا برای پژوهشگران این حوزه جذاب هستند.

فوتون‌ها

نوع دیگری از کیوبیت‌ها که در کامپیوترهای کوانتومی استفاده می‌شوند، فوتون‌ها هستند. با تنظیم و اندازه‌گیری حالت‌های اسپینی هر کدام از ذرات نور، کیوبیت‌‌های فوتونی می‌توانند برای ارسال اطلاعات در فواصل طولانی از طریق کابل‌های فیبر نوری بکار روند و در حال حاضر نیز در ارتباطات و رمزنگاری‌ کوانتومی کاربرد گسترده‌ای دارند.

در همین راستا، یک پردازشگر کوانتومی فوتونیکی ابزاری است که نور را با هدف انجام محاسبات کوانتومی دست‌کاری می‌کند. کامپیوتر کوانتومی فوتونیکی از منابع نور کوانتومی استفاده می‌کند که پالس‌های نوری فشرده گسیل می‌کنند و کیوبیت‌ با مد عملگر‌ پیوسته‌ای مانند مکان یا مومنتم در این پالس نور متناظر است.

اتم‌های خنثی

اتم‌ خنثی از تعادل بارهای مثبت و منفی حاصل می‌شود. با استفاده از تکنولوژی لیزر می‌توانیم این اتم‌ها را با بردن به چندین حالت‌ برانگیخته باردار کنیم. به این ترتیب هر کدام از این نوع اتم‌ها می‌توانند برای ایجاد کیوبیت بکار روند. قابلیت ویژه این نوع از کیوبیت‌ها در مقایسه با سایر انواع کیوبیت در این است که این بیت‌های کوانتومی در کاربردها و انجام عملیات محاسباتی در مقیاس بزرگ مفید هستند.

به‌طور کلی، تکنولوژی کیوبیت‌ اتم‌های خنثی با تکنولوژی کیوبیت‌ یون‌های به دام افتاده مشابه است. تنها تفاوت در این است که در مورد اتم‌های خنثی از نور به جای نیروهای الکترومغناطیسی جهت به دام انداختن کیوبیت‌ها و نگه داشتن آن‌ها در یک مکان خاص استفاده می‌شود. اتم‌ها در این نوع کیوبیت باردار نیستند و مدارهایی که در این تکنولوژی معرفی می‌‌شوند، می‌توانند در دمای اتاق عملیات منطقی را اجرا کنند.

محاسبات کوانتومی چیست؟

محاسبات کوانتومی یک مبحث بین‌رشته‌ای محسوب می‌شود که با بهره‌گیری از مفاهیم مکانیک کوانتومی، علوم کامپیوتر و نظریه اطلاعات کوانتومی به حل مسائلی ورای توانایی قوی‌ترین کامپیوترهای کلاسیکی می‌پردازد. با وجود اینکه مطالعات در این زمینه ادامه دارد، اما در آینده‌ای نزدیک تکنولوژی کوانتومی قادر به حل پیچیده‌ترین مسائلی خواهد بود که حتی ابرکامپیوترها نیز یا نمی‌توانند آن‌ها را حل کنند و یا با سرعت بسیار بسیار کمتری قادر به حل آن‌ها هستند. برای مثال، پردازش چالش‌هایی که برای یک کامپیوتر معمولی ممکن است هزاران سال طول بکشد، با استفاده از کامپیوتر کوانتومی فقط به چند دقیقه زمان نیاز دارد.

بیش از چهل سال پیش، مقاله‌ای توسط «ریچارد فاینمن» (Richard Feynman) با عنوان «شبیه‌سازی فیزیک با کامپیوترها» منتشر شد که پایه و اساس آن چیزی است که امروز به ‌عنوان محاسبات کوانتومی می‌شناسیم. قدرت بالای محاسبات کوانتومی و فرصت‌هایی که به علت پتانسیل بالای این نوع محاسبات در زمینه روش‌های جدید رمزگذاری اطلاعات توسعه پیدا کرد، در زمینه نگه‌داری و رمزگذاری اطلاعات حساس بسیار حائز اهمیت است. به همین دلیل نیاز است روی روش‌های رمزگذاری کوانتومی ایمن کار شود.

اگر بخواهیم به‌طور خلاصه تفاوت محاسبات کلاسیکی و کوانتومی را توضیح دهیم باید به این نکته اشاره کنیم که در محاسبات کلاسیکی تعداد حالت‌های ممکن به‌صورت خطی افزایش می‌یابد. اما در محاسبات کوانتومی با توجه به اصل برهم‌نهی، تعداد حالات ممکن به‌صورت تصاعدی با افزایش تعداد کیوبیت‌ها زیاد می‌شود. چنین رشدی باعث می‌شود تعداد حالت‌های ممکنی که توسط یک کامپیوتر کوانتومی در حال بررسی و پردازش است در مقایسه با یک کامپیوتر کلاسیکی به‌طور قابل ملاحظه‌ای افزایش پیدا کند. مطالعه مطلب زیر از مجله فرادرس به شما کمک می‌کند تا در زمینه الگوریتم‌های کوانتومی و کاربردشان در محاسبات کوانتومی اطلاعات خود را کامل‌تر کنید.

الگوریتم شور و گراور

حوزه مطالعاتی محاسبات کوانتومی شامل مباحثی مانند سخت‌افزارها و الگوریتم‌های کوانتومی است. الگوریتم‌های کوانتومی براساس ذخیره‌سازی و دست‌کاری اطلاعات کار می‌کنند، به‌گونه‌ای که این اطلاعات قابل دسترسی برای کامپیوترهای کلاسیکی نباشد. همچنین یکی از مهم‌ترین کاربردهای این الگوریتم‌ها در حوزه «امنیت دیجیتال» است. الگوریتم‌هایی مانند «الگوریتم شور» (Shor’s Algorithm)، «الگوریتم گراور» (Grover’s Algorithm) و «الگوریتم‌های رمزگذاری ایمن کوانتومی» (Quantum-Safe Encryption Algorithms) در همین زمینه توسعه یافتند.

الگوریتم شور که در سال ۱۹۹۴ توسط «پیتر شور» (Peter Shor) در آزمایشگاه «بل» (Bell) واقع در شرکت مخابراتی AT&T کشف شد، خطری بزرگ برای امنیت جهانی اینترنت و سیستم‌های رمزنگاری معمولی است. این الگوریتم عمل شکستن یک عدد بسیار بزرگ را به عامل‌های اول در مدت زمان کوتاهی انجام می‌دهد. البته در حال حاضر بعید است که هکرها و سارقان به کامپیوتر کوانتومی دسترسی داشته باشند. همچنین از نگاه مثبت، این امر به توسعه بخش‌های جدید از محاسبات کوانتومی منجر شد و دانشمندان را وادار به توسعه رمزنگاری کوانتومی و مخابرات کوانتومی کرد. همچنین الگوریتم گراور برای جست‌وجو در پایگاه‌های داده خیلی بزرگ کاربرد دارد. انجام اموری که توسط الگوریتم‌های شور و گراور در زمانی کوتاه صورت می‌گیرد، توسط قوی‌ترین ابرکامپیوترهای موجود ممکن است که تا ما‌ه‌ها و یا سال‌ها طول بکشد.

اجزای یک کامپیوتر کوانتومی چیست؟

کامپیوتر کوانتومی نیز مانند کامپیوتر کلاسیکی از دو بخش سخت‌افزار و نرم‌افزار تشکیل می‌شود. در ادامه توضیح می‌دهیم که منظور ما از بخش سخت‌افزاری و نرم‌افزاری یک کامپیوتر کوانتومی چیست.

سخت‌افزار کامپیوتر کوانتومی

بخش سخت‌افزاری یک کامپیوتر کوانتومی شامل سه قسمت زیر است:

  • صفحه داده کوانتومی
  • صفحه اندازه‌گیری و کنترل
  • صفحه پردازشگر کوانتومی و پردازشگر میزبان

صفحه داده کوانتومی

صفحه داده کوانتومی یا Quantum Data Plane در حقیقت هسته کامپیوتر کوانتومی محسوب می‌شود. این بخش شامل کیوبیت‌های فیزیکی و ساختارهایی است که برای نگهداری این کیوبیت‌ها در مکان مشخص موردنیاز است.

صفحه اندازه‌‌گیری و کنترل

این صفحه سیگنال‌‌های دیجیتال را به سیگنال‌های آنالوگ یا به سیگنال‌های کنترلی موجی شکل تبدیل می‌کند. این سیگنال‌های تولید شده به شکل آنالوگ، عملیات مختلفی را روی کیوبیت‌ها در صفحه داده کوانتومی انجام می‌دهند.

صفحه پردازشگر کوانتومی و پردازشگر میزبان

در نهایت می‌خواهیم ببینیم آخرین جزء سخت‌افزاری در یک کامپیوتر کوانتومی چیست و چه کاری انجام می‌دهد. صفحه پردازشگر کوانتومی الگوریتم‌های کوانتومی یا ترتیب در عملیات را اجرا می‌کند. همچنین پردازشگری به نام پردازشگر میزبان یا Host Processor داریم که با بخش نرم‌افزاری کامپیوتر کوانتومی برهم‌کنش دارد و نتیجه آن، ارائه یک سیگنال دیجیتالی یا توالی بیت‌های کلاسیکی برای صفحه اندازه‌گیری و کنترل است.

نرم‌افزار کامپیوتر کوانتومی

تا اینجا یاد گرفتیم سه رکن اصلی سخت‌افزاری یک کامپیوتر کوانتومی چیست. بخش نرم‌افزاری کامپیوتر کوانتومی الگوریتم‌های کوانتومی منحصر به فردی را با استفاده از مدارهای کوانتومی پیاده‌سازی می‌کند. مدار کوانتومی یک روال محاسباتی محسوب می‌شود که یک سری عملیات کوانتومی منطقی را روی کیوبیت‌ها تعریف می‌کند. توسعه‌دهندگان این بخش می‌توانند به کمک ابزارهای توسعه نرم‌افزاری مختلف در کنار کتابخانه‌ها، این الگوریتم‌های کوانتومی را طراحی کنند.

معروف‌ترین کامپیوتر‌های کوانتومی ساخته شده

در بخش‌های قبل یاد گرفتیم یک کامپیوتر کوانتومی چیست، مبنای محاسبات آن چگونه است و از چه اجزا و ساختارهایی تشکیل شده است. همزمان با توسعه تراشه‌های سیلیکونی و تکنولوژی ابررسانا، پیش‌بینی می‌شود که به‌زودی به محدودیت قدرت محاسبه کامپیوترهای کلاسیکی نزدیک شویم و راه‌حل عبور از این محدویت، جایگزین کردن کامپیوترهای کوانتومی است.

تصویری از یک آزمایشگاه با مخازن بزرگ
تصویری از آزمایشگاه کوانتومی IBM

در نتیجه موسسات و شرکت‌های معروفی مانند «شرکت بین‌المللی ماشین‌های تجاری» (International Business Machines Corporation) یا IBM، «مایکروسافت» (Microsoft)، «گوگل» (Google) و «آمازون» (Amazon) به سرمایه‌گذاری در این زمینه پرداخته‌‌اند. پیش‌بینی این است که تا سال ۲۰۳۵ محاسبات کوانتومی به یک فناوری ۱٫۳ تریلیون دلاری تبدیل شود. معروف‌ترین کمپانی‌های دنیا در زمینه محاسبات کوانتومی، تولید و طراحی کامپیوتر کوانتومی طبق آخرین آمار سال ۲۰۲۴ به‌ترتیب عبارت‌اند از:

  • کامپیوتر کوانتومی IBM
  • کامپیوتر کوانتومی Intel
  • کامپیوتر کوانتومی Google AI
  • کامپیوتر کوانتومی Microsoft
  • کامپیوتر کوانتومی Amazon Web Services

یادگیری علوم کامپیوتر و فیزیک کوانتوم با فرادرس

در انتهای این مطلب از مجله فرادرس، احتمالا متوجه شده‌اید که دو وزنه مهم جهت درک بهتر مفاهیم محاسبات کوانتومی و در نتیجه، نحوه عملکرد یک کامپیوتر کوانتومی چیست. در این قسمت قصد داریم در همین راستا چند دوره آموزشی از مجموعه فرادرس را به شما معرفی کنیم. اگر دانشجوی گرایش‌های مختلف علوم یا مهندسی کامپیوتر هستید و نیاز دارید با مبانی فیزیک کوانتوم آشنا شوید، مشاهده فیلم‌های زیر را به شما پیشنهاد می‌کنیم:

تصویری از مجموعه آموزش مکانیک کوانتومی – از دروس دانشگاهی تا کاربردیفرادرس
برای مشاهده مجموعه فیلم‌های آموزش مکانیک کوانتومی – از دروس دانشگاهی تا کاربردی فرادرس، روی تصویر کلیک کنید.
  1. فیلم آموزش مکانیک کوانتومی – مرور و حل تست فرادرس
  2. فیلم آموزش مکانیک کوانتومی ۱ فرادرس
  3. فیلم آموزش مکانیک کوانتومی پیشرفته ۱ فرادرس
  4. فیلم آموزش رایگان مکانیک موجی در یک بعد در مکانیک کوانتومی ۱ فرادرس
  5. فیلم آموزش رایگان آموزش مکانیک موجی در سه بعد در مکانیک کوانتومی ۱ فرادرس
  6. فیلم آموزش رایگان مکانیک کلاسیکی در مکانیک کوانتومی ۱ فرادرس

اما در صورتی که به مباحث کوانتومی کاملا مسلط هستید، اما لازم است مبانی علوم کامپیوتر و نحوه عملکرد مدارهای منطقی را فرا بگیرید، تماشای دوره‌های آموزشی زیر از مجموعه فرادرس برای شما مناسب است:

  1. فیلم آموزش مبانی الکترونیک دیجیتال فرادرس
  2. فیلم آموزش مدارهای منطقی یا سیستم های دیجیتال ۱ فرادرس
  3. فیلم آموزش رایگان الگوریتم ها و روش های جست و جو در آرایه فرادرس
  4. فیلم آموزش فلیپ فلاپ تی T – مدار منطقی ترتیبی سنکرون فرادرس

کاربرد کامپیوتر کوانتومی چیست؟

کاربرد محاسبات کوانتومی در حوزه‌های مختلفی شامل موارد زیر، می‌تواند منجر به تحول عظیمی در پیشرفت صنایع مختلف شود:

برای مثال، «یادگیری ماشین» (Machine Learning) یا ML فرآیند تحلیل مقادیر گسترده‌ای از داده است تا به کامپیوترها جهت ارائه پیش‌بینی یا تصمیم‌گیری‌های درست‌تر کمک شود. پژوهش‌ها در حوزه محاسبات کوانتومی در حال بررسی محدودیت‌های فیزیکی پردازش داده‌اند تا از این طریق به توسعه یادگیری ماشین کمک کنند.

در انتها اگر بخواهیم به این سوال پاسخ دهیم که آیا کامپیوترهای کوانتومی قرار است جایگزین کامپیوترهای معمولی شوند، شاید بتوان با قطعیت به این سوال پاسخ خیر داد. می‌توانیم کاربرد کامپیوتر کوانتومی در مقایسه با کامپیوتر معمولی را به کاربرد لیزر در مقایسه با نور تشبیه کنیم. لیزر جایگزین نور نشد، اما کاربردهای خاص و مهم خود را ارائه می‌دهد. از آنجایی که شرایط نگهداری و تعریف کیوبیت‌ها شرایط خاصی مانند خلاء بالا و یا دمای خیلی پایین است، بنابراین دور از انتظار است که در آینده، تلفن همراه و یا کامپیوتر خانگی ما حاوی تراشه‌ای کوانتومی باشد. اما بی‌شک، کامپیوتر کوانتومی نوع خاصی از کامپیوتر است که برای انجام و اجرای الگوریتم‌هایی خاص و پیچیده توسعه پیدا کرده است.

بر اساس رای ۱۶۰ نفر
آیا این مطلب برای شما مفید بود؟
اگر بازخوردی درباره این مطلب دارید یا پرسشی دارید که بدون پاسخ مانده است، آن را از طریق بخش نظرات مطرح کنید.
منابع:
IBMHdm-stuttgartQuantumtech1qbitNqccProgrammerprodigy
دانلود PDF مقاله
۱۷ دیدگاه برای «کامپیوتر کوانتومی چیست؟ – به زبان ساده»

از طریق چه رشته هایی میتوان وارد این حوزه شد ؟

زمانی که سیستم عامل داس ساخته شده حداکثر حافظه ای که توان مدیریت اون رو داشته فکر میکنم ۱۶ مگابایت بوده یعنی سازنده اون با خودش فکر میکرده امکان نداره برنامه ای ساخته بشه که از ۱۶ مگ بیشتر نیاز داشته باشه.من خودم زمان دبیرستان با سیستم عامل داس کار میکردم.بعدش کم کم شاهد کامپیوترها و سی پی یو ها و سیستم عامل های قوی تر شدیم.یادمه یک زمانی یک استادی داشتیم میگفت دیگه قدرت سی پی یو ها به آخرش رسیده و از این بیشتر نمیشه.اما حالا باید شاهد پردازنده های کوانتومی باشیم.بسیار هم عالی.نمیشه از الان گفت در اینده این پردازنده ها جایگزین پردازنده های معمولی رو نگیره و یا حتی تکنولوژی بالاتر از این نیاد.انسان ذاتا کنجکاو آفریده شده و روز به روز حقایق این زمین خاکی رو بیشتر کشف میکنه.تا قرن ۲۱ درک و فهم انسان به این حد رسیده.واقعا آدمهای قرون آینده به چه درک و فهمی نسبت به این زمین خاکی خواهند رسید.خیلی جالبه.ما اون زمان کجا هستیم.

نظر من در مورد کوانتوم یا کامپیوترهای کوانتومی نیست ولی سالهاست در مورد این موضوعی که عنوان میکنم فکر کردم ، هر انسانی امواج صوتی صدایش با انسانی دیگر تفاوت دارد در آینده می‌توان بدون تلفن همراه و از طریق فرستنده و گیرنده امواج صوتی را رد وبدل کرد به نظر شما امکان دارد

دوستان این نکته رو در نظر داشته باشید که لازم نیست این کامپیوتر ها در خانه افراد باشند . فقط کافیه شما یه گیرنده و نمایشگر داشته باشید و از نرم افزار ها و بازی ها بصورت ابری و برخط استفاده کنید و یعنی کیس داخل شرکت هست و بازی یا نرم افزار روش اجرا میشه و شما خروجی رو دریافت میکنید .واقعا منتظر اون روز هستم .چقدر رندر سه یعدی راحت میشه خدا میدونه .عالیه

وقتی میگن علم یعنی قدرت یعنی همین. دیگه هیچ رمزی روی سیستمی معنی نمیده. مسلما نسل جدید نرم افزارهای طراحی شده توسط کوانتوم خیلی متفاوت تر از نرم افزارهای امروزیست. کوانتوم فلسفه ی زندگی و حتی کل زندگی بشر رو تغییر میده.

کامپیوتر ساخته شده توسط Dwave کوانتومیه؟
پس چرا اغلب شرکت ها می گن تا ساخت کامپیوتر کوانتومی هنوز فاصله داریم؟

من فکر نکنم اینا رو به مردم عادی بفرشن. چرا؟ چون اگه دست یه ادم دیوونه بیفته میتون در عرض چند دقیقه کل سیستم موشک های اتمی دنیا رو هک کنه و همرو به کشتن بده حتی خودش رو

چرا این مقاله تاریخ نداره؟!

باسلام. اول اینکه اقای دکتر هم دانشگاهی و هم رشته ای بنده هستند. خوشبختم جناب دکتر.
مطلب بسیار جامع و خوب نوشته شده. میخواستم 1 موضوعی رو اضافه کنم. میشه اینجوری هم عنوان کرد که یکی از دلایل اصلی این موج اشتیاق به سمت پردازنده های کوانتومی دغدغه هوش مصنوعی و پیاده سازی شبکه های عصبی به صورت سخت افزاری هست.نرون های عصبی، سیناپس ها و دندریت ها در حال حاضر به شکل شدیدی معلول به عملکرد و سرعت ترانزیستورهای cmosهستند و برای همین که بحث یادگیری عمیق به شکل محسوسی ناکارآمد هست. تولد مدارهای کوانتومی در اینده ای نزدیک با مدل های Neuromorphic ادغام خواهند شد و احتمالا ما به مغزافزار عصبگون با حالت فازی الکترودینامیک طبیعی نزدیک خواهیم شد که احتمالا جهشی بزرگ در دنیای هوش مصنوعی خواهد بود.
به همین دلیل هست که کمپانی های که در زمینه AI پیشگام هستند به صورت موازی روی بحث رایانش کوانتمی هم تمرکز کردند مثل IBM, Google, ماکروسافت و اینتل.

سلام، وقت شما بخیر؛

تاریخ آخرین به روز رسانی کلیه مقالات مجله فرادرس در زیر عنوان آن‌ها ذکر شده است.

از همراهی شما سپاسگزاریم.

چطوری میشه ساخت اینو

ابزار و وسایلش زیر مقاله ذکر شده یه نگاه بندازی دستت میاد
جدای از شوخی ساخت این سیستم ها به قدری پیچیده هست که وقتی یه شرکتی فقط چند کیوبیت به کامپیوترش اضافه میکنه برتری کوانتمی محسوب میشه
در کل علوم خیلی زیادی دست به دست هم دادن

بسیار عالی و کاربردی بود
خیلی جذاب بود
نوشته هم بسیار ساده و شیوا بود
خدا خیرتون بده

ممنون خيلي خوب بود. يک سوال داشتم. تکنولوژي ساخت کامپيوترهاي کوانتومي چيست؟ ترانزيستور؟

بنده خدا دوساعت داشت میگفت اینا فرق دارن با گیت های معمولی بعد میگی ترانزیستور ?

ممنون خیلی خوب بود

بهترین مقاله ای بود که تا الان خوندم عالی بود عالی
سپاس

نظر شما چیست؟

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *