Do všech oblastí IT proniká strojové učení a nelze se tak divit tomu, že to ovlivnilo nástup profesionálních výpočetních grafických karet, ale i speciálních akceleračních čipů. Jedním takovým je i Google TPU. Ten používá pro zpracování dat i nový speciální formát Bfloat16, který nyní bude přímo podporován na čipech od Intelu.
Formát Bfloat16 je ideální a dostačující pro většinu výpočtů týkající se neuronových sítí a je kompatibilní například s Tensorflow. Skvěle se hodí na zpracování řeči a jazyka, obecné sítě ale také pro doporučovací systémy.
Strojové učení akcelerované v procesoru
A právě tento formát Intel implementuje do nových procesorů řady Xeon, které jsou určené převážně do serverů a datacenter. Bfloat16 se objeví v modelech s kódovým označením Cooper Lake, které by se měly začít prodávat ještě letos a budou používat 14nm výrobní proces.
Nový formát bude rovněž implementovaný do speciálního akcelerátoru Nervana Neural Network Processor (NNP-T1000). I když procesory Intel tento formát v současnosti ještě nepodporují, dokáží ho emulovat pomocí instrukční sady AVX512 a vektorů, pochopitelně s nižším výkonem než by to bylo možné v nativní verzi přímo v hardwaru.
Lze očekávat, že optimalizace obecných čipů směrem k akceleraci neuronových sítí bude pokračovat. V tomto směru jsou napřed hlavně mobilní čipy, kde už neuronovou část integrují čipy v iPhonech i iPadech od Applu a dalších mobilních zařízeních od jiných výrobců.