Microsoft v létě letošního roku zamířil ke dnu u skotského souostroví Orkneje, kde nechal vylovit „serverovny“, které v těchto místech pod hladinou více než dva roky pracovaly ve zkušební provozu.
Kontejner projektu Natick před spuštěním do hloubky zhruba 36 m u pobřeží Orknejských ostrovů v roce 2018 a během kontroly po vytažení v létě 2020
Přestože stěny nedávno vylovených kontejnerů pokryli řasy a korýši, uvnitř uzavřené servery po dva roky pracovaly lépe, než je zvykem u podobných zařízení na souši. Zdá se, že tak naplnily naděje, které do nich společnost Microsoft vkládala. Experiment nazvaný Natick totiž podle jejích odborníků může ukazovat, kterým směrem by se mohla vydat nezanedbatelná část světové počítačové infrastruktury: do hlubin.
NÁŠ ŽIVOT V MRACÍCH
Jedním z hlavních trendů v IT je rostoucí význam cloudových služeb. A i když se cloud prodává uživatelům jako v podstatě virtuální prostředí, ve skutečnosti samozřejmě musí fyzicky existovat. Jeho skutečným domovem jsou velká datacentra, která od přelomu 20. století rostou po celém světě. Datacentra se nestavějí samozřejmě jen kvůli cloudovým službám, to zjednodušujeme, ale je to jeden z velkých trendů, který k jejich rozmachu vedl.
Nenápadné a často doslova „šedivé“ budovy datových center jsou sice pro laiky v podstatě neviditelné, ale na účtech za elektřinu nejde o zanedbatelné položky. Ve Spojených státech spotřebovávaly v roce 2017 podle studie Kalifornské univerzity zhruba 2 % veškeré využité elektřiny. V absolutních číslech to bylo zhruba 70 TWh, tedy jen o něco méně, než kolik činí spotřeba České republiky.
Nemáme bohužel zcela přesnou odpověď na otázku, kolik elektřiny spotřebovávají v celosvětovém měřítku. Kusé dostupné údaje ovšem naznačují, že i přes mohutně rostoucí výkon se daří velmi významně snižovat jejich spotřebu. Podle kvalifikovaných odhadů se v roce 2010 spotřeba všech datacenter po celém světě pohybovala kolem 190 TWh a v roce 2018 to bylo jen kolem 210 TWh.
Konstruktéři odvádějí skvělou práci – jen se obávají, jak dlouho jim to ještě půjde.
KDE USPOŘIT
Dosavadní úspory byly z velké míry právě na chlazení. První generace velkých datacenter spotřebovávala i 40 % energie na chlazení počítačového vybavení – to znamená, že chlazení vlastně spotřebovávalo téměř stejně energie jako provoz samotných počítačů. Všechny velké společnosti ovšem postupně začaly zavádět různá opatření, která měla spotřebu snížit.
Přistupovalo se k opatřením až bizarním: Google například změnil svůj dress code a dovolil technikům chodit do práce v krátkých rukávech a šortkách – a i díky tomu si mohl dovolit zvýšit teplotu v centrech o několik stupňů, a ušetřit několik procent na elektřině. Důležitější byly ovšem technologické změny. Začalo se například používat tzv. volné chlazení (i v češtině se často používá anglický výraz free-air cooling), při kterém se k chlazení využívá nižší teploty vnějšího vzduchu.
Energetická úspora je dána tím, že se v takovém systému nepoužívají kompresory, ale vzduch volně proudí přes výměník s od počítačů ohřátou chladicí kapalinou a odvádí přebytečné teplo pryč. Tento postup je samozřejmě podstatně úspornější a podle zkušeností Microsoftu umožňuje snížit náklady na chlazení na 10 až 30 % z celkových provozních nákladů – rozptyl je dán z velké části tím, v jakém podnebí provoz stojí.
V tom také může být kámen úrazu. Datová centra by v řadě případů měla stát blízko uživatelům, aby se zrychlila jejich odezva. Ne vždy je to samozřejmě nutné, v některých případech je to uživateli vlastně jedno, za kolik milisekund dokáže jeho počítač navázat spojení s „cloudem“, ale přibývá aplikací, u kterých to roli může hrát (jednou z nich mohou být i různé „umělé inteligence“ typu virtuálních asistentek). A stejně tak je stále více náročných uživatelů, kteří prostě pomalou odezvu nevidí rádi. Pokud ale máte postavit provoz s volným chlazením v horkém podnebí, může to být velký technický problém.
Pokud se postaví datacentrum v horkém podnebí, jeho provoz pak může často vyžadovat poměrně hodně vody, která se používá k ochlazení venkovního vzduchu na vstupu. Voda ovšem obvykle něco stojí, v některých místech pak úřady či místní obyvatelé na podobné využití koukají vysloveně nelibě. To je třeba případ samotného Silicon Valley, protože Kalifornie má dlouhodobě problém najít pro všechny uživatele tolik vody, kolik by si přáli. (Nemluvě o tom, že provozovatelé se ochlazeného vzduchu, který má vyšší vlhkost, dosti obávají kvůli zvýšenému riziku koroze.)
VZHŮRU POD VODU
Skupina výzkumníků z Microsoftu dospěla k závěru, že velké části těchto potíží (a pár dalším, o kterých ještě bude řeč) by se dalo vyhnout ponořením datacenter pod hladinu moře. Šéfům se jejich nápad natolik líbil, že jim poskytli čas a prostředky, a tak se v roce 2014 zrodil „Projekt Natick“. Jeho základem je systém standardizovaných hermetických buněk uložených na dno moře. Měly by obsahovat v podstatě standardní vybavení, ale měly by se chladit v podstatě téměř výhradně pasivně díky okolní vodě.
Nápad má hned několik pozitiv. Za prvé mohou být velmi blízko spotřebitelům, protože necelá polovina světové populace žije méně než 100 km od pobřeží některého z moří či oceánů. Samozřejmě, pro Čechy to není to nejlepší řešení, ale polovina světa, to už je zajímavý trh.
Navíc teplota vody je od určité hloubky velmi podobná, ať jste kdekoliv na světě. Mluvíme samozřejmě o hloubkách řádově stovek metrů, ne těsně pod hladinou. Prakticky všechna voda pod 1 000 m (a tedy 90 % veškeré mořské vody) má teplotu mezi 0–3 °C. Dataservery připravované v rámci projektu Natick mají být blíže hladině (Microsoft uvádí hloubky až do 200 m), ale i v tropických oceánech jde o vrstvy, které mají z tohoto hlediska zajímavé teploty, třeba kolem 15 °C. A ne, zatím si nelze věrohodně představit, že by provoz podobných systémů světová moře měřitelně ohřál.
MÉNĚ PAPÍROVÁNÍ
Další výhodou je, že oceán nemá stavební vyhlášky. Pozemské stavby se musí řídit celou řadou předpisů, které se místo od místa liší. A byť velké firmy používají v provozech na různých místech světa v podstatě identické vybavení, stejně musí každý projekt připravovat zvlášť. Microsoft také tvrdí, že různé požadavky a předpisy vedou k tomu, že v podstatě identický hardware pracuje na různých místech světa s různou mírou spolehlivosti. Podmořské „serverovny“ by ovšem měly být úplně identické, a tak by se daly nejen vyrábět jako pověstné housky na krámě, ale také by měly mít v podstatě identické výkony a provozní vlastnosti.
Nemluvě samozřejmě o tom, že v některých částech světa, například v Evropě, může být problematické (nebo prostě příliš drahé) sehnat vhodné místo a také vyřídit úřední proces před zahájením stavby. Samozřejmě, ani stavba pod mořem nemusí být nic jednoduchého, ale Microsoft podle všeho tak trochu tiše doufá, že „co oči nevidí, to srdce nebolí“, a ubude minimálně opozice těch, kdo nechtějí velké datacentrum za plotem.
Zjednodušené „stavební řízení“ by spolu s výhodami masové výroby mělo společnosti umožnit, aby dokázala dodat nutné výpočetní kapacity na dané místo během šesti měsíců – takový je alespoň plán. Asi je zbytečné dodávat, že je to podstatně rychlejší než běžná stavba.
Podmořské prostředí se může zdát pro počítače dokonale nevhodné, ve skutečnosti by mělo být podle konstruktérů možné v ochranném obalu připravit elektronice patrně lepší podmínky než na povrchu. Na místě například nebude žádná obsluha, a tak nemusí atmosféra jednotlivých „buněk“ obsahovat kyslík – což znamená, že se minimalizují problémy s oxidací, tedy i s korozí. Stejně tak se dá z umělé atmosféry odstranit prakticky veškerý prach a vodní pára.
JAK TO ŠLO POD VODOU
V praxi se koncept pak začal zkoušet u Orknejí. Pro potřeby pokusu vznikla velká podvodní nádrž s 864 servery a podpůrným vybavením (napájení, síťovými prvky a samozřejmě systémem chlazení). Firma samozřejmě sledovala jeho chod po celou dobu experimentu, nyní, po vytažení, došlo i na fyzickou kontrolu. Kontejner byl důkladně očištěn, odvezen do doků, odsáty vzorky vnitřního prostředí na chemickou analýzu, dusíková atmosféra nahrazena vzduchem a veškeré vybavení vyjmuto. Vzorky elektroniky, zejména porouchaných komponent, byly odeslány do Redmondu k další analýze.
Ale již první výsledky naznačují, že v principu prostředí serverům a dalším IT technologiím zřejmě vyhovuje. Poruchovost byla osmkrát menší, než tomu bývá u datacenter na souši. Důvody v tuto chvíli nejsou zcela jasné, možná to souvisí s inertní atmosférou, možná pomohla absence otřesů, spekulují autoři projektu.
Zároveň je ovšem nutno dodat, že kdyby tomu bylo jinak, koncept by nebyl vůbec životaschopný. Jakýkoli fyzický zásah do podmořského datacentra je natolik logisticky a finančně náročný, že je mimo plánované intervaly prakticky nemožný. Podmořské datacentrum musí být tak spolehlivé, aby na ně po plánovanou dobu provozu nemusel sáhnout člověk. V praxi má samozřejmě zařízení procházet pravidelnými upgrady a velkými kontrolami ve zhruba pětiletých intervalech.
Stále také není jisté, zda výhody spojené s nižší poruchovostí opravdu převáží. Tým Naticku tvrdí, že osmkrát nižší poruchovost je natolik významná, že projekt dává ekonomický smysl. I na základě výsledků kontroly kontejnerů u Orknejí údajně reálně zvažuje uplatnění podmořských datacenter v rámci provozu svého cloudového ekosystému Azure.