Sběr dat z provozu je jedním ze základních kamenů, na kterých stojí digitalizace průmyslu. Hloubková analýza informací ze senzorů na strojích dokáže podnikům pomoci s automatizací, plánováním výroby i diagnostikou výrobních zařízení. Avšak k tomu, aby bylo možné sběr a vyhodnocování tak obrovského množství informací provádět, je třeba mít také robustní infrastrukturu, která zvládne zajistit celý životní cyklus dat, a také tým profesionálů pro vyhodnocování informací.
Obecně by se dalo konstatovat, že ke sběru a práci s daty je možné přistoupit několika způsoby, přičemž každé řešení je platné a vhodné pro různé podniky. Data je možné ukládat a zpracovávat buď v rámci společnosti na interních serverech, případně je možné je odesílat do cloudu nebo s nimi pracovat v takzvaném hybridním módu, což znamená, že část dat je uložena na lokálních firemních serverech a část v cloudu. Pokud se podnik rozhodne používat služby v cloudu, je třeba počítat s nutností rychlejšího datového připojení k internetu než v případě on premise, tedy lokálního řešení. Získávání dat, stejně jako ukládání, analýza a vizualizace se následně provádí pomocí softwarových nástrojů a vyhodnocování může probíhat zpětně i v reálném čase.
Pro efektivní využití dat je však nesmírně důležitý i lidský prvek – tým odborníků složený z datových analytiků a vědců i profesí zaštiťující funkční infrastrukturu, bezpečnost, architekturu i vývoj. Bez nich podnik nebude schopen výsledné informace správně vyhodnotit a promítnout je do příslušných procesů ve firmě a získaná data zůstanou více méně ladem. Vybudování vlastního týmu je však časově i finančně velice náročné a každá firma by si měla nejdříve detailně propočítat, zda se jí takové řešení vyplatí, nebo zda a v jakém poměru je výhodnější využívat pro práci s daty outsourcované služby.
Ať už se firma rozhodne jít cestou cloudu, či interního sběru a zpracování dat, bude potřebovat komplexní platformu, skládající se z výkonného hardwaru i speciálního softwaru.
Hardwarovou část představují servery například od společností HP, Lenovo, Fujitsu, DELL, dále síťové prvky, rackové skříně, disková úložiště či záložní napájení. Jednotlivé servery ještě mohou být zapojeny do clusterů, mezi které se úlohy distribuují, a každý cluster má na starosti zpracovávání konkrétních dat.
Softwarová část náleží operačnímu systému (zejména různým distribucím Linuxu) a nástrojům určeným pro vlastní zpracování dat jako například open source Apache Hadoop či Apache Spark, nad nimiž se dá postavit unikátní řešení pro danou společnost, a to včetně nástrojů pro analýzu a vizualizaci dat. Celá infrastruktura musí být navržena tak, aby dokázala distribuovat desítky a stovky terabytů až jednotky petabytů dat při přenosových rychlostech 100 Mb/s až 10 GB/s.
INTELIGENTNĚ ZPRACOVANÁ DATA
Vlastní zpracování probíhá v procesech nad interně či v cloudu uloženými daty, a to dávkově, tedy v přesně stanovených intervalech, nebo v reálném čase. Zásadní rozdíl v těchto dvou konceptech lze přirovnat k jízdě v autě, kde se v případě dávkového způsobu zpracování dat díváme na záznam z palubní kamery a sledujeme události, které se odehrály jen za určitý časový úsek. V případě zpracování dat v reálném čase se díváme na minulost starou jen několik zlomků sekundy.
Na základě takto rychle analyzovaných a vizualizovaných dat z výroby (například z IoT senzorů na strojích) může člověk či počítač bezprostředně konat. Čili se rozhodovat o dalších operacích tak, aby se při výrobě zamezilo případným ztrátám, nebo naopak aby se zvýšila efektivita produkce. Zpracování dat však nemusí být pouze o prostém „statistickém“ vyhodnocování získaných údajů. Přidaná hodnota práce s velkými objemy dat totiž tkví v možnosti užití prvků umělé inteligence, například (hlubokého) strojového učení.
Strojové učení je typ uměle inteligence, díky které se počítače dokážou učit na základě získaných informací. Učení probíhá za pomoci tréninkových dat buď „s učitelem“ (datovým expertem), nebo bez něj.
Existuje ale také zpětnovazební učení, které funguje na principu vybírání vhodného řešení z mnoha možností. Velká výhoda oproti dvěma předchozím principům je v tom, že systém nepotřebuje cvičná data, trénuje na reálných datech zadaných expertem a dokáže se mu plně vyrovnat či ho dokonce v dovednostech překonat. Tento postup se opírá o poznatky z behaviorální psychologie a hojně se využívá se právě v průmyslu.
Nutno ovšem podotknout, že samotný proces učení je samozřejmě závislý na množství a kvalitě používaných dat a přímo souvisí se složitostí procesu, který je třeba zautomatizovat. Učení tedy může trvat dny i měsíce a v případě opravdu složitých operací i roky.
Výsledky učení ale v praxi mohou vypadat třeba tak, že při použití vhodného algoritmu pro oblast kontroly kvality výrobků můžeme postupně celý systém kontroly jakosti plně automatizovat. Sledováním zvuků a vibrací strojů či kvality výrobků zase můžeme predikovat jejich „zdravotní“ stav a přesněji tak odhadovat údržbu. A aby toho nebylo málo, i takto složité úkony je v konečném důsledku možné provádět v reálném čase. Sběr, a hlavně správně zvolená metoda analýzy dat z výroby tedy můžou vést k okamžitému a pozitivnímu vlivu na finance.
Nástroje pro sběr a analýzu dat je možné propojit i s vnitropodnikovými systémy (i těmi v cloudu) pro obousměrné využívání. ERP totiž sám o sobě funguje jako téměř bezedná databanka strukturovaných informací o procesech řízení zásob, výroby a dodavatelského řetězce. Díky integraci nástrojů pro analýzu dat se všechna tato data mohou vyhodnocovat v reálném čase, což podnikům může přinést zlepšení na poli rozhodování a řízení celého procesu výroby i logistiky.
Kristina Kadlas Blümelová a Martin Stufi, Solutia