Společnost IBM během prosincového Kvantového summitu představila první kvantový počítač s více než 1 000 fyzickými qubity, tedy kvantovým ekvivalentem digitálních bitů v běžném počítači. I když překročení symbolické hranice 1 000 qubitů se může zdát důležité, skutečně zajímavé milníky ve vývoji kvantových výpočetních strojů padají jinde. Ostatně i samotná společnost IBM ve svém programu dalšího vývoje kvantové technologie dává najevo, že chce klást stále větší důraz na snižování chybovosti kvantových počítačů. Samotné zvyšování počtu qubitů v procesorech totiž hlavní problém této technologie neřeší, přestože je pokrok v této oblasti poměrně rychlý. Inženýrům a konstruktérům se v poslední době daří počty kvantových bitů v čipech zvyšovat každoročně zhruba dvojnásobně — růst výkonů v této oblasti je tedy poměrně rychlý. V loňském roce měl rekordní procesor IBM 433 qubitů, letošní model Condor už disponuje 1 121 supravodivými qubity ve voštinové struktuře. Kvantové počítače mají být v řešení určitého okruhu problémů, například v kryptografii, výrazně efektivnější než počítače klasické. V kvantovém stroji dochází velmi zjednodušeně řečeno k velmi efektivnímu výběru vhodných variant, takže u některých problémů (Monte Carlo simulace) je možné dosáhnout cíle s vynaložením výrazně menšího výpočetního výkonu.
Pryč s chybami
Kvantová zařízení jsou velmi citlivá a až notoricky náchylná i k jiným chybám. Chybovost je tak velká, že i po relativně nízkém počtu operací z původních hodnot nezůstane nic než šum. Prakticky jsou tato zařízení přes některá velmi odvážná tvrzení vývojářů zatím nepoužitelná. Potenciál však mají, a tak se na jejich vývoji poměrně intenzivně pracuje i přes současné nedokonalosti. Kromě samotného zvyšování počtu qubitů se proto větší pozornost věnuje hledání způsobů, jak chybovost snížit. Osvědčeným řešením je vytvoření robustnějších výpočtů spojením několika jednotlivých qubitů — každého zakódovaného například v supravodivém obvodu nebo v jednotlivém iontu — do větších „logických qubitů“. I v této oblasti probíhal v posledních letech určitý pokrok, byl ovšem výrazně pomalejší než v případě zvyšování počtu qubitů v procesoru. Společnost IBM tak v prosinci představila kromě svého rekordního čipu Condor také výrazně menší čip Heron (Volavka). Ten má sice „jen“ 133 qubitů, ale s rekordně nízkou chybovostí, 3× nižší než u předchozího kvantového procesoru. Tak výrazné snížení chybovosti je pro celý obor pozitivní zprávou a dává naději, že i v této oblasti je možné nadát se pokroku. Asi nejzajímavější, a potenciálně i nejdůležitější překvapení poslední doby v oboru se ovšem odehrálo jinde než v konstrukci samotných čipů.
Do třetice...
Spolehlivost a praktickou použitelnost kvantových počítačů mají kromě dostatečného výkonu a robustních qubitů zajišťovat také algoritmy, které budou používat. Spolu s počítači a procesory samotnými tak bude mít při případném nasazení klíčovou roli i samoopravný kvantový kód, který může zajistit spolehlivost výsledků (mimo jiné ovšem za podmínek, že procesor nebude zatěžovat přes určitou míru). Bohužel se podle dosavadních odhadů zdála být takováto „kontrola kvality“ výsledků velmi nákladnou záležitostí. Odhady do nedávna tvrdily, že aby byla zaručena dostatečně nízká chybovost, tak bude muset být fyzických qubitů 1000× více než „logických“. Kvantové výpočty by v takovém případě potřebovaly tisícinásobné jištění. Což třeba znamená, že nový čip Condor by v praxi nebyl 1000qubitový, ale jednoqubitový. To pochopitelně příliš impozantní není. V posledních době ovšem obor nadchlo alternativní schéma korekce s pomocí nízkohustotního kódu s kontrolou parity (qLDPC — quantum low-density parity-check code). Jde o techniku tvorby samoopravného kódu, která se běžně používá v klasických komunikacích, ale v kvantových zařízeních ji dříve nikdo nedokázal využít. V posledních dvou letech se ovšem objevily první pozitivní výsledky jejího nasazení a první demonstrace její účinnosti na velmi malých, experimentálních kvantových procesorech. Vše známé ale zatím nasvědčuje tomu, že by ji pravděpodobně mělo být možné nasadit i na kvantových procesorech s větším počtem qubitů. Což může znamenat zásadní snížení potřeby „kontrolní zálohy“ pro jednotlivé qubity. Tým odborníků právě z IBM nedávno dospěl k závěru, že by poměr mohl poklesnout pod 100 : 1. Což by mělo nepřímo zajistit, že výkonné kvantové počítače mohou „dozrát“ rychleji, než se donedávna čekalo. Na oslavy a definitivní tvrzení je ovšem ještě brzy. Ve hře je příliš mnoho nejistoty a neznámých proměnných. Nasazení qLDCP techniky je zatím spíše teoretické nebo uplatnitelné jen na těch nejjednodušších modelech. Může trvat roky, než se ho podaří zvládnout tak, aby bylo možné uvažovat o implementaci na výkonnějších strojích. Nepůjde to také pokaždé. Nasazení této samoopravné techniky vyžaduje, aby byl každý fyzický qubit propojen alespoň se šesti dalšími. V případě současných čipů IBM je propojen jen se dvěma, a tak bude nutné změnit celou řadu záležitostí i na hardwarové úrovni. Ale protože je obor stále v plenkách a vývojáři nejsou omezeni ohledy na výrobu, ochota ke změnám je vysoká. /jj/