Změny v největších světových datových centrech a plánovaný přechod na otevřenou (RISCovou) architekturu mají přinést velké výhody především uživatelům. Posunou je blíže k internetu věcí a dennímu používání kognitivních systémů, říká Radek Špimr, konzultant IBM pro oblast nových pracovních zátěží na serverové platformě IBM Power Systems.
V první polovině dubna 2016 v době konání OpenPOWER summitu proběhla médii zajímavá informace, že Google společně s Rackspace připravují novou serverovou platformu pro svá datová centra založenou na bázi Power9, resp. OpenPOWER, splňující požadavky a kritéria Open Compute Project (OCP), na němž pracují společně s dalším gigantem Facebookem a dalšími partnery. Znamená tato spolupráce nějakou větší změnu?
Ano, jde doslova o revoluci. A když revoluce, tak pořádná. Jde o zcela zásadní informaci od Googlu a dalších partnerů, která radikálně mění pozici technologií v datových centrech. My tomu říkáme „hyperscale“, nová generace datových center a aktuálně již přecházíme z fáze vývoje a testování do fáze masivního nasazení do produkce. Podle šéfa výzkumu serverových řešení IDC Petera Ruttena jde o „nejdůležitější oznámení v oblasti IT od vzniku konsorcia OpenPOWER, na které trh celou dobu čekal“. Oficiální oznámení IBM najdete zde.
Ale zpátky do minulosti. Od založení OpenPOWERu v roce 2013 společnostmi IBM, Google, Nvidia, Mellanox a Tyan je počet členů aktuálně po včerejším oznámení vyšší než 200. Hlavními lídry uskupení jsou giganti jako Samsung, PowerCORE, Ubuntu, Micron, Xiling, SK Hynix, Avnet, Hitachi, Inspur, Wistron, Veri Silicon, Zoomnet a dlouhá řada dalších, se kterými se aktuálně jedná. Asi nikoho nepřekvapí, že na probíhajícím OpenPOWER summitu ukázaly svoje řešení například také firmy SuperMicro, E4, Penguin Computing. Nicméně servery to nekončí, zákazníkům byla představena třeba karta Dragen od Edico Genome z dílny OpenPOWER, která umí během 26 minut kompletně analyzovat celý lidský genom namísto stávajících 30 hodin nebo inteligentní přímé kapalinové chlazení čipů od Aseteku pro systémy s vysokou hustotou výpočetní kapacity. Některé další projekty jsou uvedeny zde.
Výrobcům serverů jde spíše o to, udělat server optimálně veliký a flexibilní podle různých přání zákazníků, rychlý, levný, škálovatelný a spolehlivý. Půjdeme-li dále, pak „advanced“ řešení, jako jsou karty FPGA připojené přes rozhraní CAPI, optimalizovaný software a řešení soft-hardware, jsou tím, co posouvá technologie Power vpřed, daleko před Intel. Nemluvě o nativní integraci procesorů Power s nastupujícími akcelerátory GPU od Nvidie přes NV-Link, kde Nvidia současně oznámila Tesla P100, nejvýkonnější GPU na světě.
Dovedete si představit sledovaní třeba 3 miliard entit, například Tweetů nebo čehokoliv jiného, v reálném čase? To dneska díky nejnovějším technologiím Power/NVIDIA/gpuDB umíme a navíc bez žádných závratných nákladů. To vše ještě společně s Mellanoxem umíme připojit do sítě na technologiích 100Gb/s Infiniband/Ethernet s 90ns latencí. Science fiction? Ne, jde o současnost Made in OpenPOWER.
Jak dlouho vám toto všechno trvalo a co za tím stojí?
Samozřejmě tyto reálné, hmatatelné výsledky nevznikly ze dne na den, ale je v nich skrytá několikaletá intenzivní práce všech členů OpenPOWERu, kterou si málokdo dovede představit a ani hlasité skeptické názory, ani akvizice našich partnerů (Intel-Altera) nás nedokáže zastavit. Místo Altery máme dnes ještě dokonalejší, rychlejší a větší řešení pro databáze NoSQL, pracující s technologiemi flash a NVMe přes CAPI a datová centra nové generace. Vidíme to jako výsledek spolupráce ve skupině OpenPOWER dnes všichni.
Je OpenPOWER skutečně tak otevřený?
Na rozdíl od některých jiných technologiích ano, OpenPOWER je skutečně otevřená platforma. Aktuálně patří mezi jednu z nejpočetnějších skupin členů univerzity z celého světa, které mají členství zdarma. A jak vidíte, více než dvě stě zcela nezávislých subjektů, firem a jednotlivců z různých oborů spolupracuje na jednom rozsáhlém projektu. Přitom dál rozvíjejí integraci s jinými projekty jako je OCP, OpenStack apod.
Díky této otevřené spolupráci se například modifikuje i instrukční sada procesorů OpenPOWER (ISA V3). U ostatních výrobců, těch dominantních, je to obráceně. Ti se snaží modifikace a rozšíření instrukční sady zaintegrovat přímo do čipu a tuto rozšířenou funkcionalitu vyladit třeba pouze s jedním operačním systémem. Nám na Poweru aktuálně běží IBM AIX, IBM i a snad všechny Linuxy, které si dovedete představit, včetně podpory nejpoužívanějších komunitních verzí.
Máte k dispozici nějaká zajímavá čísla, o která se můžete podělit?
Z plánované letošní produkce čipů POWER8 by asi některým lidem spadla čelist na zem. Toto číslo je opravdu vysoké, avšak není veřejné. Nicméně pár zajímavých čísel bych měl. Podle IDC rostly v roce 2015 tržby na trhu se servery o 8 %, z toho segment non-x86 (převážně RISC) klesal o -5,4 %. Tržní podíl IBM v tomto segmentu však narostl meziročně až na úctyhodných 75,8 % a ve 4. čtvrtletí si toho všiml i slavný Forbes.
Podíl IBM se servery Power a mainframy rostl o 8,9 %, po kompletním očištění čísel od divize x86 prodané Lenovu. Je to více než dvojnásobek oproti růstu prodeje serverů x86 Lenovo (+3,7%). Aktuálně tvoří tržní podíl serverů non-x86 (převážně RISC) v celosvětovém měřítku skoro 20 %. Právě toto je to číslo, které by mělo díky konsorciu OpenPOWER narůstat, tj. tržní podíl non-x86 serverů a technologií.
Zazněly na letošním OpenPOWER Summitu nějaké další novinky nebo zajímavosti?
Za mne bych zde vyzdvihl především věci okolo softwaru. Již zde byl zmíněn termín soft-hardware (OpenPOWER+OpenStack+Open Compute+CAPI), stejně jako programovatelné karty FPGA/CAPI nebo GPU, umožňující přesunout specifickou část úlohy (výpočtu) na dedikovanou kartu, která provede zpracování třeba tisíckrát rychleji než samotný procesor. Ale základ inovací, které vedou k radikálnímu zrychlení a zefektivnění provozu hardwaru je nový, resp. optimalizovaný software. Ať se to někomu líbí nebo ne, neexistuje software, který byl napsaný pro klasické CPU a zároveň uměl optimálně využít například GPU nebo CPU a GPU najednou.
To platí jak pro aplikační software, tak pro operační systém, na který se často zapomíná. Buď je potřeba napsat nový, nebo původní software upravit a optimalizovat. To pochopili i ti největší hráči jako Google, nebo v komerční sféře třeba SAP se svojí S4, zatímco někteří jiní se snaží nutnost inovativního přístupu v oblasti softwaru zamaskovat a zpomalit překotným přesunem všech svých softwarových aktivit do cloudu. To je na jednu stranu velice chytré, avšak na druhou stranu pouze dočasné řešení oddalující příčinu budoucích velkých problémů.
Oproti tomu vývojáři v oblasti open source pracují s novým, upraveným, nebo optimalizovaným softwarem zcela běžně. Koho by třeba před rokem napadlo, že se dočkáme SQL Serveru právě na Linuxu a rozhodně to pro Microsoft nebylo snadné rozhodnutí. Proto bych rád závěrem upozornil třeba na příspěvek ohledně „HAL“ (OpenPOWER Hardware Abstraction Layer). Podle mne je tato oblast pro rozšíření OpenPOWER stejně klíčová, jako byl přechod na Little Endian Linux.
Pod pojmem HAL si můžeme představit cokoliv, ale v podstatě jde o další stupeň ve vývoji virtualizace, který reflektuje požadavky trhu. Původně dominantní, proprietární řešení jsou většinou na rychlém ústupu a stejně jako hardware se i virtualizace stává komoditou, s majoritním základem v dnes už zcela běžných open source technologiích.