Na přelomu roku uspořádaly společnosti DNS, distributor s přidanou hodnotou, a IBM seminář, který přítomné seznámil s aktuálními trendy v oblasti HPC (High Performance Computing), a to zejména ve sféře technologií IBM, konkrétně serverové platformy Power, storage technologií IBM Storwize a StorageOne. Nechyběly ani příklady jejich nasazení v praxi.
Po úvodním slovu Luboše Kvapila z DNS seznámil Aleš Komárek, rovněž z DNS, s novinkami z konference Supercomputing 2015 z Austinu, samozřejmě ohledně HPC a platformy IBM Power.
HPC v podání IBM a konsorcia OpenPower
Radek Špimr z IBM hovořil o platformě IBM Power, která se má vracet na výsluní světa HPC (High Power Computing). IBM totiž společně s partnery s konsorcia OpenPower vyvíjí technologie, které umožňují zásadním způsobem zrychlovat výpočty a zároveň snižovat energetickou náročnost prostředí HPC. Mezi nejvýznamnější zákazníky a partnery technologií IBM Power ve světě HPC nepatří jen známé sdružení amerických HPC center CORAL po ministerstvem energetiky DoE, ale i francouzské GENCI nebo anglické STFC a řada dalších veličin HPC, jako například evropské E4 Computer Engineering nebo americký Penguin Computing, který již vyrábí své servery HPC na bázi Power, a v neposlední řadě i obrovské zázemí v Číně a Asii.
IBM začala dodávat první vlnu serverů OpenPower s procesory Power8 vyráběných ve spolupráci s partnery Tyan a Nvidia pod označením LC, jako interconnect a standardně jsou také používány technologie dalšího partnera Mellanox.
Inovace a trendy v HPC
IBM a OpenPower dnes i v HPC světě znamenají zejména inovace, které obohacují a dosti zásadním urychlují evoluci prostředí HPC. Mezi hlavní trendy v oblasti HPC, které IBM adresuje, patří:
• Hybridní computing – úzké propojení klasických procesorů Power s akcelerátory GPU pro masivní paralelní zpracování od Nvidie. V následujících generacích dojde na propojení po superrychlé sběrnici NVLink, aktuálně po PCIe. Hybridní kombinace umožní několikanásobné zvýšení výkonu při zachování stávající spotřeby energie.
• Cloud a bezpečnost pro HPC výpočty – obecně cloud není vhodný pro HPC kvůli variabilním požadavkům na infastrukturu, nicméně za určitých okolností, kdy budou v cloudovém prostředí implementovány nejrychlejší I/O a síťové technologie, lze výpočty spouštět i zde, například na serverech OpenPower. Otázka bezpečnosti a důvěrnosti dat v cloudu je ale v případě HPC ještě více nasnadě a očekávají se i určité regulační kroky s ohledem na bezpečnost.
• Big data a internet věcí (IoT) – i tyto technologie budou zasahovat i do světa HPC, technologie big data budou pomáhat při přípravě dat pro výpočty HPC, nebo rozšiřovat analyzovaná data o nové informační zdroje.
• Výkon a spotřeba energie pro HPC – jedním z nejvýznamnějších trendů je dramatický nárůst výkonu s minimálním dopadem na spotřebu energie. To znamená, že hardware HPC pro následujících tři až pět let let musí být několikanásobně rychlejší, při současném zachování aktuální spotřeby energie. To vše mají splňovat procesory IBM Power9, integrované přes NVLink další generace s Nvidia Volta GPU. Zároveň IBM představila už v roce 2015 společně se Samsungem, Global Foundries, jako první unikátní 7nm technologii na výrobu procesorových čipů, kterou zatím nikdo jiný nedisponuje. V těchto technologiích tedy zřejmě bude konsorcium okolo IBM i v blízké budoucnosti jediným dodavatelem těchto technologií, které se bezesporu uplatní i ve světě HPC.
• Nový a specifický software – jediná věc, která se ve světě HPC několik desítek let zásadně neproměnila, je software, a proto v této oblasti IBM očekává největší změny. Speciální software a překladače umožňující plně využít hybridních systémů CPU a GPU, přenesení určitých částí výpočtu na speciální hardwarové akcelerátory během normálního výpočtu, nebo výpočty umožňující zpracovávat i data pořízená technologiemi pro big data nebo informace z internetu věcí. S tím samozřejmě souvisí i možná bezpečnostní rizika, která by mohla být v budoucnu řešena různými oficiálními regulacemi.
Těsné svázání HPC se storage
Rudolf Hruška, který má v IBM na starosti oblast storage, zdůraznil úlohu ukládání velkých objemů dat. High Performance Computing (HPC) je totiž v informačních technologiích oblast, která je zejména velice úzce svázána s vědeckými aplikacemi, jež mají za úkol poodhalit roušku tajemství z dění v přírodě, v lidském těle, ve společnosti i ve vesmíru.
Tyto aplikace vyžadují analýzy nesmírného množství dat, která jsou obvykle experimentální povahy a jsou výsledkem kolekce a měření z různých sofistikovaných přístrojů a zařízení. Musejí být proto také uložena na spolehlivá datová média. Například běžící experimenty v oblasti fyziky generují datové toky až desítky gigabytů za sekundu, což představuje nároky na uložení v řádech stovek terabytes až petabytes za den.
Úložiště dat pro HPC
Kvůli těmto extrémním nárokům jsou datová úložiště pro HPC specifická. Požadavky na ně jsou charakterizovány velkou škálovatelností, a to nejen v oblasti vlastní kapacity, ale i výkonnosti. Výkon se musí příslušně navyšovat s tím, jak se navyšuje kapacita dat. Na druhé straně je kladen velký důraz i na cenovou efektivitu. Proto se tato úložiště snaží využít různé typy datových médií. Nejen velkokapacitní, relativně drahé magnetické disky, ale dokonce i páskové technologie, které při vhodném zapojení a za pomoci chytrých softwarových komponent, umožňují vytvořit jedno společné úložiště.
Magnetické datové pásky mají větší kapacity (dnes až 10 TB) a představují mnohonásobně nižší cenu za jednotku uložení. Vhodné workflow pak zajistí, že data jsou podle zvolených politik ukládána na příslušnou kapacitní vrstvu podle nároků na výkon a cenu za jejich uložení. Toto workflow, které se nazývá hierarchický storage management, zároveň i zajistí migrace dat v prostoru úložiště, opět podle zvolených politik. Pásková část pak slouží jako pracovní dlouhodobý archiv, jehož data jsou však permanentně dostupná pro potřebu zpracování. V tomto případě se opět automatizovaným způsobem přesunou na rychlejší diskovou část úložiště.
Bouřlivý nástup flashových technologií nenechal samozřejmě bez povšimnutí ani svět HPC. Flashová média se však využívají primárně jako místo pro uložení metadat souborových systémů. Vzhledem k obrovským velikostem těchto globálních paralelních file-systémů s velkým množstvím souborů, je rychlé zpracování metadat jedním z klíčových elementů optimálního návrhu architektury úložiště.
Příkladem může být úložiště HPC, které vybudovala společnost IBM pro podporu vědecké instalace v DESY (Deutsche Synchrotron) v Hamburku. DESY zkoumá fyzikální jevy za pomoci urychlovače částic. V následujícím odkaze uživatel popisuje problémy, se kterými se v rámci projektu setkal, a jakým způsobem IBM pomohla tyto úkoly vyřešit: https://www.youtube.com/watch?v=JLCj4jQI3q8.
Příklady storage pro HPC z praxe
Zkušenosti s nasazením storage pro HPC přednesl Luboš Korbel, IBM Storage One, a to ohledně Storwize V7000 U na ČVUT v Praze.
Závěrečné slovo měl Petr Plodík z DNS, který má na starosti kompletní portfolio IBM – hardware i software.