Správných odpovědí na otázku, co má třikrát větší spotřebu elektřiny než Česká republika, je celá řada. Kolik z nás by ovšem odhadlo, že to jsou také světová datacentra a v nich obsažené zálohy nejen klíčových dokumentů a údajů, ale i fotografií obědů, dětí, koček a štěňátek? Naše nehmotné digitální majetky ročně spotřebují podle odhadů zhruba 200 TWh elektrické energie, což je sice v českých poměrech impozantní číslo, z hlediska celosvětové spotřeby jde ovšem o poměrně nevýraznou položku: zhruba 1 % světové spotřeby. Jinak řečeno, náklady na spotřebu elektřiny jsou velkou otázkou jen pro jejich provozovatele a v podstatě nikoho jiného. Nejen pro ně už je ovšem zajímavou otázkou, jak to bude do budoucna. Naše (s)potřeba digitálních dat roste v tuto chvíli exponenciálně a snad nikdo neodhaduje, že by se trend mohl v dohledné době obrátit. Není tak možná divu, že podle některých černých scénářů by mohl v dohledné době podíl celého sektoru informačních a komunikačních technologií (ICT) na spotřebě elektřiny narůst ze současných zhruba 5 % možná až na 20. Ve skutečnosti to bude podle autorova skromného názoru podstatně méně – a to právě proto, že sektoru hrozí tak výrazné navýšení účtů za elektřinu. Tak významný problém přitáhne velikou pozornost a dá nepochybně vzniknout celé řadě inovativních řešení. Ostatně současný trend je relativně příznivý: spotřeba ICT sektoru několik posledních let roste velmi pomalu, téměř neznatelně. Datacentra jsou dobrým příkladem: dochází v nich k celé řadě inovací, které výrazně snižují jejich spotřebu. Výrazná část úspor v posledních několika letech jde na vrub postupného zavádění tzv. „hyperscale“ data center, které vychází z obecně sdílených a dostupných řešení ověřených velkými společnostmi jako Google, Facebook či Amazon. Jejich rozšíření pomohlo i to, že Facebook v roce 2011 zpřístupnil design a specifikace svých datacenter právě proto, aby pomohl snížit spotřebu energie v sektoru. Design podobných datacenter se samozřejmě stále vyvíjí a mění, ale základním rysem je maximální důraz na „funkčnost až na dřeň“. Servery pro podobná centra už se vyplatí vyrábět na míru, a tak přišly o veškeré prvky, které jim nepomáhají v jejich primárním úkolu skladování a přenosu dat. Nenašli byste na nich jedinou diodu, protože v uličkách hyperscale center nikdo nechodí. Nemají video konektory, protože se k nim nikdy žádné zobrazovací zařízení nepřipojí. V jejich sestavách nenajdete šrouby, protože by jen zdržovaly při montáži či demontáži a pro provoz nejsou zapotřebí. Jejich efektivita je dnes až překvapivě vysoká. Nejběžněji se udává pomocí indikátoru známého jako PUE (Power Usage Effectiveness), tedy indikátoru energetické efektivity. Ten označuje poměr mezi celkovou spotřebovanou energií a energií využitou přímo IT zařízením v datacentru. Ideální hodnota je tedy 1,0, při které se veškerá energie využívá přímo na provoz samotného IT. Hyperscale datová centra mají často hodnoty PUE mezi 1,1 a 1,2. Google se chlubí, že průměrné PUE jeho datacenter je 1,12. Průměrná efektivita menších či starších datacenter v USA se pohybuje podle odhadů kolem PUE 2,0. V roce 2016 tak odborníci z Lawrence Berkeley National Laboratory odhadovali, že kdyby se data z 80 % menších datacenter přesunula do hyperscale zařízení, ušetřila by se zhruba čtvrtina spotřeby. Přesun skutečně probíhá, a bude i nadále. Dnes je na světě zhruba 400 hyperscale datacenter, která spotřebovávají asi 20 % z celkové elektrické spotřeby datacenter. Mezinárodní agentura pro energii odhaduje, že v roce 2020 už bude jejich podíl 50% – to samozřejmě výrazně přispěje ke snížení energetické efektivity celého odvětví. Největších úspor se podařilo dosáhnout v chlazení datacenter. Dnes prakticky všechna moderní zařízení využívají metody „free cooling“. Ta se hodí pouze do chladnějšího klimatu (zhruba řečeno do oblastí, kde alespoň po třetinu roku průměrná venkovní teplota je pod 13 °C), ale to jsou zároveň shodou okolností oblasti, kde je poptávka po datech největší. Chladicím médiem je obvykle ovšem voda, nikoliv vzduch. Teplota chladicí vody přitom bývá poměrně vysoká, více než 15 °C, což umožňují efektivní chlazení i při vyšších venkovních teplotách. Do budoucna se uvažuje například o datacentrech, ve kterých servery budou ponořeny v chladicím médiu, tedy nejspíše oleji či minerální „lázni“. Facebook tento postup před několika lety zkoušel v jednom svém datacentru, ale zatím jde jen o zajímavost, která se nedočkala většího rozšíření. Velkým problémem je především údržba. Poměrně velké úspory by mohla přinést údajně i další optimalizace. Google v roce 2016 pověřil tým kolem svého systému s hlubokým učením DeepMind vylepšením optimalizace chlazení datacenter. První praktické zkoušky jím vytvořených algoritmů dopadly na výbornou a drobné optimalizace typu sladění chlazení se změnami počasí a další úpravy dokázaly výrazně snížit spotřebu energie. V srpnu 2018 společnost definitivně předala řízení datacenter algoritmu, který DeepMind vyvinul. V jednom kl íčovém ohledu je budoucnost poněkud nejasná: mluvíme o jejich „jádrech“, tedy procesorech. Za posledních 50 let se jejich výkon zvýšil zhruba 10milardkrát, ale dnes panuje mezi odborníky poměrně rozšířená skepse ohledně dalšího vývoje. Další zvyšování s pomocí polovodičové křemíkové technologie se jeví jako problematické a řada expertů očekává, že může dojít k zcela zásadní změně (například masovému nasazení spintroniky místo elektroniky). To činí možné odhady budoucího vývoje v tomto ohledu v podstatě nemožnými. Jasné je snad jen to, že ať už se náš hlad po datech bude snažit ukojit jakákoliv technologie, její autoři nepochybně budou mít dobrou motivaci, aby nadále snižovali spotřebu elektřiny. Koťátek totiž nebudeme mít nikdy dost. /jj/