Společnost Google měla na podzim letošního roku připravenou mediální „bombu“. V časopise Nature totiž toho dne vyšla práce, ve které tým společnosti tvrdí, že nastal bod, kdy dnešní klasické elektronické (a částečně spintronické) počítače přestaly v některých úlohách stačit počítačům kvantovým. Plánované grandiózní zveřejnění neproběhlo zcela podle plánu – a může za to NASA a algoritmy samotného Googlu. Zhruba měsíc před plánovaným vydáním práce někdo ze spolupracovníků týmu v Amesově výzkumném středisku NASA podle všeho zcela nedopatřením nahrál kopii vědeckého textu o úspěchu na server NASA určený pro zveřejňování technických zpráv (NASA Technical Reports Server). Omyl rychle napravil a text smazal. Vyhledávací „crawler“ Google prakticky okamžitě text i na málo známém serveru NASA zachytil. Systém okamžitě poslal kopii každému, kdo měl ve službě sledování vědeckých publikací Google Scholar zaškrtnuto, že chce dostávat novinky z oblasti kvantových počítačů. Zpráva se nezadržitelně rozšířila a plánovaná „bomba“ v říjnu tedy dopadla s podstatně menším efektem, než asi PR oddělení Googlu doufalo. Ve světě za zrcadlem Kvantové počítače mají již za sebou bohatou historii papírovou. „Vysnil“ si je slavný fyzik Richard Feynman před víc než půlstoletím. Právě on si podle všeho jako první uvědomil, že s využitím zákonů kvantové mechaniky je teoreticky možné postavit zařízení s ohromným výpočetním výkonem. Možné to je díky spojení několika kvantových zákonů. První z nich říká, že kvantové objekty mohou být v několika stavech najednou (tzv. kvantová superpozice stavů). Klasický bit může být buď 1, nebo 0; kvantový bit (čili qubit) může být obojí najednou. U jednoho qubitu to není proti klasickému bitu velký rozdíl – v podstatě může nést jen dvojnásobné množství informací. Ale znovu opakujeme, že v kvantovém světě neplatí normální pravidla. Kvantové počítače kromě principu „obojakosti“, tedy superpozice stavů, využívají ještě tzv. „magického“ pouta kvantové provázanosti. Když tedy provážete dva kvantové bity, tedy dva qubity, najednou mohou nést čtyřikrát tolik informací. Teoreticky není důvod, proč jich neprovázat ještě více: tři, deset nebo sto. A tady už je nárůst neuvěřitelně rychlý – množství informací v systému roste s mocninou počtu provázaných qubitů. V případě dvou je to 22, tedy 4. Pro pět je to 25, tedy 32. A pro 53 qubitů je to už 253, tedy 9 007 199 254 740 992 (devět biliard). Přitažlivost nápadu je asi zjevná. Bohužel, jeho realizace není nic jednoduchého. Vytvořením provázaného systému qubitů a spuštěním výpočtu potíže nekončí. Výsledek pak musíte ještě z počítače vyčíst tak, abyste ho při tom nepoškodili. Pokud byste totiž jednoduše zjišťovali stav qubitů během výpočtu, zhroutily by se do podoby nudné klasické částice s jedním jediným bitem informace. Ke zjišťování výsledku se proto využívá speciálních technik (na principu tzv. kvantové interference). Jak název napovídá, v podstatě jde o to, že se jednotlivé „možnosti“ v rámci výsledku buď navzájem posilují, či naopak vzájemně oslabují. Některé se tedy stávají pravděpodobnějšími, protože se „podpoří“, jiné naopak méně pravděpodobnými, protože je jiná možnosti „ruší“. Správně sestrojený kvantový počítač (a správně nastavený algoritmus) postupně „zesiluje“ správné řešení, až na konci výpočtu zůstane právě to. Kvantové počítače nebudou nikdy rychlejší ve všech typech úloh. Ne vždy podobný paralelní výpočet představuje tak velkou výhodu. Ale existují problémy, o kterých jsme si teď již naprosto jistí, že v nich budou bezkonkurenčně nejlepší. Asi nejslavnější z nich se týká počítačového šifrování a nese název po svém objeviteli, matematiku Peteru Shorovi – tzv. Shorův algoritmus. Byl zveřejněn v roce 1994 a šlo vlastně o první ukázku praktické využitelnosti kvantových počítačů. Z pohledu laika je to zcela nezajímavý návod, jak hledat prvočinitele velikých čísel; ve skutečnosti ovšem Peter Shor ukázal, že kvantové počítače by díky svým vlastnostem měly být schopny prolomit celou řadu tehdy (a dnes stále) používaných šifer. Existují i jiné slavné nápady, jak využít kvantových počítačů k něčemu, co klasické počítače nezvládnou (především Groverův algoritmus na prohledávání databází), ale rok 1994 byl přelomový. Od té doby se nástup kvantových počítačů očekává se směsicí obav a nadšení. Celá desetiletí šlo ovšem o pocity platonické, protože bylo jasné, že kvantové počítače jsou daleko. Jak ale (mimo jiné) dokládá výsledek Googlu, času ubývá. Proč 53? Možná jste si všimli, že jsme si pro příklad extrémně rychlého nárůstu výpočtu kvantových počítačů vybrali poněkud zvláštní číslo – 53. Právě s 53 qubity totiž pracoval procesor „Sycamore“, s jehož pomocí tým Googlu v časopise Nature oznámil nástup „kvantové dominance“, tedy – zopakujme to znovu – okamžik, kdy kvantové počítače reálně zvládnout aspoň některé výpočty rychleji než i ty nejrychlejší počítače klasického typu. Sycamore je zařízení založené na dnes řadou týmů favorizované technologii vytváření qubitů ve smyčkách supravodivého vodiče (dodejme, že nejen kvůli supravodivosti chlazeným tekutým heliem na teplotu blízkou absolutní nule). Toto konkrétní zařízení bylo vyvinutou přímo Googlem, má podobu ploché mřížky ze supravodiče s 54 „uzly“, tedy qubity. Ovšem jeden qubit byl vadný a pracovat se dalo tedy jen s 53. Kvantové počítače nejsou spolehlivější... Nejméně zajímavý na celé zprávě je snad samotný problém, na kterém Google „kvantovou dominanci“ ukázal. Byl pouze pečlivě vybrán pro to, aby na něm kvantový počítač mohl dokázat svou převahu, napsal v časopise Quanta Magazine John Preskill z Kalifornského technologického ústavu, autor termínu „kvantová dominance“, a dodal: „Jinak to není problém, který by z praktického hlediska byl nějak zajímavý.“ Velmi zjednodušeně řečeno, počítač provedl náhodně vybranou sadu instrukcí, a pak vědci změřili výsledek. Výpočet nemá žádnou zjevnou aplikaci a slouží především jako důkaz toho, že tým „ovládl“ kvantový hardware natolik, aby relativně spolehlivě zvládal některé výpočty, na které klasické počítače prostě nestačí. „Tým Googlu ukázal, že dnes můžeme postavit kvantový stroj, který je dost veliký a přesný na to, aby vyřešil problém, který jsme předtím vyřešit nedokázali,“ napsal Preskill v článku. IBM vrac í úder Podle Googlu byl rozdíl mezi výsledky kvantového a klasického počítače skutečně nebezpečný. Kvantový Sycamore si s výpočtem poradil zhruba za 200 s, nejrychlejší počítače dneška by stejný problém řešily zhruba deset tisíc let. Ovšem mezi únikem článku a jeho vydáním se do věci vložil tým společnosti IBM. Ještě před oficiálním vydáním práce svého konkurenta v časopise Nature vydal tým z IBM odbornou práci a text na firemním blogu, podle kterých se Google velmi výrazně přepočítal. Nejsilnější počítač světa by podle nich danou úlohu spočítal výrazně rychleji – za pár dní místo deseti tisíc let. IBM má na mysli jeden konkrétní počítač, a to Summit v Oak Ridge National Lab, který je v současnosti nejsilnějším počítačem na světě (cca 200 petaflopů) a který – což je v tomto případě extrémně důležité – má také úložiště o velikosti 250 petabytů. Do takového úložiště se (zjednodušeně řečeno) vejde úplný výpis všech možných stavů kvantového 53bitového čipu Sycamore, který Google použil. Díky tomu může pracovat rychleji, než předpokládala simulace. Proto IBM odhaduje, že výpočet by nejrychlejšímu klasickému počítači dneška netrval deset tisíc let, ale zhruba dva a půl dne. A to je podle ní nejhorší možný výsledek, ve skutečnosti by měl být rychlejší. Je to totiž zatím pouze odhad. Výpočet ještě neprovedl, byť tým IBM prý software pro zkoušku připravil – ovšem v rozvrhu Summitu na něj ještě nebyla volná chvíle. Mimochodem, jak poznamenává Scott Arronson, pokud se na počítači uvolní termín, tým Googlu bude nepochybně nadšen – ve své práci totiž vůbec nepočítal s tím, že by mohl své výpočty přímo ověřit, tedy ověřit skutečně provedením výpočtu. Jejich vlastní odhady vycházely ze simulací a ověřování na malém vzorku z výpočtu. Odborníci, kteří situaci komentují, se celkem jednoznačně shodují, že návrh IBM se zdá být zcela racionální a prakticky realizovatelný. Otázkou je, zda to na situaci něco mění. Zřejmě ne, kvantová dominance se minimálně v případě tohoto typu úloh zdá být nevyhnutelná. Výkony kvantového počítače totiž nerostou lineárně. Kdyby měl Sycamore třeba 55 qubitů, už by se toto řešení použít nedalo – simulace by se do diskového pole nevešla. A kdyby qubitů bylo 60, bylo by zapotřebí zhruba 33krát víc úložného prostoru. Zdá se, že jsme opravdu zhruba v oblasti, kde kvantové počítače klasickým začínají odskakovat příliš rychle. Druhý nápad pana Shora Stroj Googlu také nijak neřešil velký problém kvantových počítačů. Tím je jejich chybovost. Dnešní qubity jsou velmi citlivé a snadno je můžou ovlivnit vnější vlivy. A jakmile se chyba v kvantovém výpočtu objeví, musí se rychle odstranit, protože stejně jako výpočetní výkon roste i její vliv na výpočet, a ten se pak může brzy zhroutit. Zatím se zdá, že tento problém nepůjde nikdy zcela odstranit. Jde o důsledek kvantového provázání qubitů s okolím. Mají tu nepříjemnou vlastnost, že příležitostně „navazují“ podobné vztahy se svým okolím jako mezi sebou. Do kvantového výpočtu se tak zcela nevyhnutelně dostávají chyby, kterým v podstatě z povahy věci nejde zabránit. U klasické techniky jste si sice také museli dávat pozor, abyste nepoložili na disk magnet nebo si neodložili disketu na reproduktor, ale jinak jste si mohli být jisti, že vaše data jsou před okolním světem víceméně v bezpečí a nebudou se jen tak sama od sebe měnit. Kvantový systém je mnohem „křehčí“, protože prostě nevíme, jak ho úplně oddělit od okolí. Přesto dnes existuje řešení, které se obecně považuje za realizovatelné, byť bohužel (výpočetně) nákladné. Navrhl ho již známý Peter Shor, který může za to, že po kvantových počítačích tak touží všichni kryptografové. Přišel s návrhem způsobu, jak kvantový algoritmus korigovat podle průběžně ukládané zálohy. Na pohled je to přirozené řešení: proč si prostě neudělat kopii, že? To snad napadne každého... V kvantovém světě je však bohužel něco takového nemožné. Když chcete udělat kopii, musíte si přečíst originál. A pokud si přesně „přečtete“ kvantový algoritmus, ten se vám zhroutí. Shor a celá řada vědců po něm nakonec vypilovali poměrně rafinovaný systém, který umožní udělat zálohu původního výpočtu do dalších qubitů v systému, aniž by ten původní byl poškozen. Funguje dokonce i v některých experimentech, ovšem zatím pouze malých. Dosud se fungující průběžnou zálohu nepodařilo ukázat na systému podobné velikosti, jaký použil Google pro svůj důkaz kvantové dominance. Pro dosažení požadované úrovně spolehlivosti ochrany proti chybám by bylo zapotřebí několikanásobně většího počtu „kontrolních“ qubitů. A těch dnes nemá nikdo nazbyt. U případných budoucích větších počítačů pak bude problém ještě výraznější. Na prolomení nějaké významnější části dnešních šifer budete potřebovat počítač schopný pracovat s řádově tisícovkami qubitů. Ale pokud by měl být výpočet chráněn proti výskytu chyb vznikajících při spontánním provázáním qubitů s okolím, tak podle odborníků budou zapotřebí řádově miliony dalších „kontrolních“ qubitů. A něco takového si lze s dnešní úrovní techniky těžko představit. /jj/