HPE neboli Hewlett Packard Enterprise je už od roku 2015 samostatnou divizí, která se soustředí výhradně na servery a podniková řešení, zatímco o klasické počítače či notebooky, tiskárny a další zařízení se stará „HP“. V úterý HPE v Praze představilo novinky a lokální zástupci firmy zveřejnili přehled toho, co se aktuálně kutí a co je v plánu v blízké i vzdálené budoucnosti. A došlo i na informace o revolučním The Machine.
Nová struktura díky akvizicím
Aby HPE mohla poskytovat ucelené komplexní řešení pro zákazníka, potřebovalo řadu částí nejen zlepšit, ale také vůbec získat. Pro rychlé doplnění chybějících částí se tak rozhodlo pro tu nejjednodušší a hlavně nejrychlejší cestu – akvizice.
HPE koupilo slavného výrobce superpočítačů SGI za 275 milionů dolarů
Mezi nedávné nejdůležitější akvizice HPE uvádí společnost SGI, Simplivity a Nimble Storage. Primární předností HPE se tak stala infrastruktura, pro kterou má všechny potřebné produkty a řešení.
HPE se rozhodlo pro další dělení, zbaví se IT služeb
Spolupráce HPE a NASA
HPE už nějakou dobu spolupracuje s NASA a důvod je jasný – i ve vesmíru je nutné mít k dispozici výkonné výpočetní systémy, které jsou schopné zpracovat velké množství dat. V případě vesmíru ale přichází na řadu problém, který se v mnohem menší podobě objevuje i na zemi – energetické částice, které ovlivní byť třeba jen jeden tranzistor a hodnotu bitu z 0 na 1 či opačně a mohou způsobit chybu paměti. K většímu zabezpečení sice slouží ECC paměti, ale ani ty neřeší vše, protože paměť má pochopitelně i procesor a samotný procesor je rovněž z tranzistorů.
Na ISS tak HPE dostalo dva menší „superpočítače“, které se budou přímo na oběžné dráze testovat přibližně jeden rok, což by mělo stačit k tomu, aby inženýři nasbírali dostatek informací o tom, jak vesmírné záření ovlivňuje chod běžného systému a co vše je nutné zabezpečit. Nejedná se totiž o žádné specializované servery, které by byly chráněné obří vrstvou olova, ale o běžné servery Apollo řady 40 určené třeba do datacentra a podobně. HPE chce totiž problém s vysokoenergetickými částicemi a ochranou funkčnosti a dat řešit softwarovou cestou, nikoli specializovanými čipy.
Příprava na Mars
Cílem ale pochopitelně není prodat dva malé superpočítače do ISS, ale připravit technologii tak, aby superpočítače od HPE bylo možné použít pro cestu na Marsu. Vzhledem k tomu, jak bude raketa s lidskou posádkou daleko od Země, nelze se po výpočetní stránce spoléhat pouze na pozemské superpočítače (čekat desítky minut či hodiny na analýzu může být otázkou života a smrti), ale musí mít k dispozici i superpočítače přímo na palubě.
Takový vesmírný superpočítač Spaceborn bude umožňovat běh všech možných systémů, umělých inteligencí, vyhodnocovat obrovské množství dat ze senzorů a podobně, zkrátka bude mnohem pokročilejší než cokoli v minulosti. A je jasné, že čím více dat s větší přesností, tím lepší a kvalitnější rozhodování a zabezpečení posádky. Superpočítač bude muset zvládnout chránit sám sebe a zvládnout problémy, které se budou týkat hardwaru i softwaru.
I když nelze počítat s tím, že se do vesmírné lodi nasadí nejmodernější čipy s nejvyšší hustotou, která přináší větší problémy než na Zemi, už v současnosti HPE v rámci testování dostala na ISS výpočetní výkon v řádu teraflopsů. Zjednodušeně řešeno jedné grafické karty.
Testování ochranných mechanismů je tak extrémně důležité, HPE provedla už 300 výpočetních experimentů a vyřešila už dvě anomálie pomocí softwarové ochrany.
The Machine už brzy
Včasný vývoj revolučního The Machine, což je nová architektura zaměřená na efektivní práci s velkou a rychlou pamětí ve spojení s velkým počtem procesorů, znamená HPE velký náskok proti konkurenci. Neuvěřitelným tempem totiž roste objem dat, které je nutné zpracovávat, různým způsobem analyzovat a podobně.
Revoluční The Machine od HPE se blíží do finále, základem bude obří paměť s memristory
Právě propustnost je problém současné počítačové architektury a proto se objevily novinky jako jsou in-memory databáze (SAP Hana, Oracle DB 12c, Microsoft SQL 2016), které umožňují běh přímo v rychlé operační paměti a tak zpracovávat velké množství dat mnohem rychleji, než při neustálém přesunu na pomalejší úložiště typu flash či dokonce pevné disky nebo pásky. Zástupci HPE uvedli příklad, kdy vědci zkoumající genom pro léčbu demence dokázali snížit čas zpracování z 22 minut na pár sekund. Jen díky přepsaní algoritmů pro použití s in-memory (zpracování přímo v operační paměti) na The Machine s 40 procesory a 160 TB operační paměti (Linux to vidí jako jednu velkou paměť). To umožňuje zcela nový způsob interakce a rychlejší výzkum.
HPE už předvedlo The Machine v rámci prototypu v chodu, už v této fázi podporuje fotonický modul a nahrazuje tak přenos dat místo elektrických spojení pomocí optických kabelů a světla. Díky tomu může k jedné obří paměti přistupovat spoustu procesorů i z větší vzdálenosti zcela efektivně a rychle, Dříve bylo nutné, aby byla paměť jen pár centimetrů daleko od jednotlivých procesorů, což znamenalo omezení z pohledu maximální kapacity. Další stupeň zrychlení nastává, když si v takové paměti dokáží jednotlivé procesory vyměňovat data navzájem. HPE pochopitelně stále pracuje rovněž také na softwaru a nástrojích, protože bez nich to zkrátka nejde a je nutné současné aplikace přepsat na nový systém fungování tak, aby dokázaly novou architekturu pořádně využít.
Dle ukázkových srovnání výkonu jsou rozdíly oproti současným systémům doslova skokové. Oproti současné analytice dat in-memory dochází k 15× zrychlení, v případě finančních modelů je The Machine až 8 000× rychlejší, v analýze grafů pak například stokrát rychlejší.
Platforma pro další dekádu s novým protokolem
Nová platforma od HPE je připravena na to, aby byla připravena na následujících deset. V současnosti tak sice představuje řešení pro 32 procesorů a 96 TB operační paměti, počítá se ale s dalším škálováním až na 128 procesorů.
Protože dnes v počítačích používáme spoustu různých komunikačních protokolů, které už jsou mnohdy velmi zastaralé, HPE a takřka všichni velcí výrobci jako třeba IBM, Lenovo, Dell Technologies, Cray, AMD, Broadcom, Samsung, ARM, Western Digital, Micron, Seagate, SK Hynix, Huawei, Red Hat a další společně založili konsorcium pro vývoj nového otevřeného protokolu Gen-Z, který není limitován paměťovým řadičem ani procesorem.
Protokol Gen-Z podporuje elektrický i optický přenos dat a umožňuje adresovat až 4,7 ZB, což by mělo na nějakou dobu rozhodně stačit. Nutno podotknout, že Intel se zatím nepřipojil a snaží se razit vlastní uzavřený Omni-Path.
Servery Gen10 a specializované procesory
HPE v rámci nové generace serverů Gen10, která přichází tři roky po Gen9, přináší řadu novinek, Kromě vysoké bezpečnosti na hardwarové úrovni už z výroby, která je pro HPE nejdůležitějším bodem v této oblasti, jsou k dispozici i nové specializované procesory od Intelu.
HPE si zajistilo exkluzivitu na speciální procesory Intel, které bude mít jako jediná firma do června příštího roku. Procesory mají 2 zásadní výhody – Jitter Smoothing (řeší HPE na úrovní firmwaru) a Core Boosting (exklizivní varianty od Intelu). Zatímco první technologie znamená, že se procesor efektivněji chová při přechodech mezi různými stádii frekvenci (základní a turbo), druhá pak zvyšuje maximální frekvenci turbo režimu. Obě technologie samozřejmě zvyšují celkový výkon procesoru v mnoha aplikacích, HPE uvádí průměr mezi 10 % až 12 %. Nabídka se týká pouze tří vybraných modelů série Xeon Gold (nikoli nejdražší Platinum). Výhodou je, že cena těchto procesorů je pro zákazníka stejná.