Google se pochlubil výkonem svých procesorů TPU pro strojové učení. Jsou až 30× rychlejší

Když Google před lety začal experimentovat se strojovým učením nasazeným v ostrém provozu třeba pro rozpoznávání hlasu, zjistil, že kdyby všichni jeho uživatelé začali v jeden okamžik diktovat svému telefonu (anebo dnes domácímu chytrému reproduktoru Home) povely, strojové učení, které se zdokonaluje právě analýzou podobných hlasových příkazů, by k práci potřebovalo všechna datová centra obří korporace.

Jinými slovy, ačkoliv nástup univerzálních výpočetních karet GPU předznamenal bujarý rozvoj neuronových sítí, ani ty pro nějaké masové nasazení nestačí. Google, Facebook a další potřebují hardware šitý přímo na míru, který bude mnohem efektivnější, a tak jak Google, tak Facebook dle svých vlastních potřeb vyvíjejí unikátní železo.

Klepněte pro větší obrázek Klepněte pro větší obrázek Klepněte pro větší obrázek
Výpočetní karta pro strojové učení Tensor Processing Unit a počítač AlphaGo, který je používá a loni porazil mistry ve hře go

To od Googlu se jmenuje Tensor Processing Unit (TPU), má rozměry a rozhraní SATA disku, aby jej bylo možné instalovat do současných rackových skříní, a Google přesně tyto moduly použil třeba pro svého softwarového hráče AlphaGo, který loni pokořil ty nejlepší jihokorejské mistry v této komplikované strategické hře

Nyní se Google na svém blogu konečně pochlubil, jak je vlastně výpočetní jednotka TPU rychlá, srovnal ji totiž jak s CPU nejvyšší třídy (serverové haswelly od Intelu), tak právě s výpočetními jednotkami GPU (Nvidia K80).

Výsledek jeho testu je… Nadějný. Nadějný v tom smyslu, že strojové učení nemusí narážet na současné limity hardwaru, jednotky TPU totiž dosáhly 15× až 30× rychlejšího strojového učení než na tradičních a grafických procesorech.

Výkon přitom není vše. Pro masové nasazení je z ekonomického hlediska stejně tak důležitá spotřeba, protože k čemu by bylo sebelepší strojové učení, když byste k jeho běhu potřebovali vlastní jaderný reaktor, že? Spotřeba TPU je 30× až 80× nižší než u tradičních procesorů.

Do třetice ještě jeden benefit. Jelikož jsou čipy navržené pro strojové učení, samotný kód programu může být o to menší – neuronovou síť napíšete od 100 řádků kódu, o zbytek se už postará křemík.

Specializované datacentrum, které by se celé skládalo z rackových skříní plných TPU by tak ve strojovém učení mohlo suplovat výkon všech datacenter Googlu rozesetých po celém světe. Zároveň je to příslib toho, že se možná jednou dočkáme A.I. akcelerace i na běžných čipsetech, stejně jako se v posledních dvaceti letech postupně naučily akcelerovat třeba multimedia a 3D grafiku. S takovou by pak bylo úsporné strojové učení jednou naprosto samozřejmou součástí každé krabičky světa IoT.

Témata článku: Hardware, Umělá inteligence, Strojové učení, Neuronová síť, TensorFlow, Unity 3D

3 komentáře

Nejnovější komentáře

  • Artael 13. 4. 2017 19:18:17
    Ten poslední odstavec by znamenal, že by jsme měli počítače na bázi...
  • dolph1888 6. 4. 2017 16:50:12
    Pochlubil panečku a poplácat po zádech u Google nechtějí? Ti jsou jak Ivan...
Určitě si přečtěte

Operační systém běžným počítačům nedal Bill Gates, ale Gary Kildall

Operační systém běžným počítačům nedal Bill Gates, ale Gary Kildall

** Gary Kildall pochopil, že levné výpočetní čipy mohou posloužit jako univerzální počítače pro všechny ** Připravil pro ně proto první operační systém ** Později mu systém vyfoukl Microsoft a nazval ho MS DOS

23.  4.  2017 | Pavel Tronner | 56

Umělá inteligence je sice v plenkách, už teď ale přestáváme rozumět, jak vlastně funguje. To je problém

Umělá inteligence je sice v plenkách, už teď ale přestáváme rozumět, jak vlastně funguje. To je problém

** Už je to tady, lidé přestávají chápat počítače ** Systémy neuronových sítí začínají pracovat tak, že ani jejich tvůrci přesně neví, co se uvnitř děje ** Do budoucna to může být závažný problém

24.  4.  2017 | Jakub Čížek | 112

Před 35 lety měl premiéru legendární počítač ZX Spectrum. Připomeňte si „Gumáka“

Před 35 lety měl premiéru legendární počítač ZX Spectrum. Připomeňte si „Gumáka“

** Slavný osmibitový počítač Sinclair ZX Spectrum byl uveden právě před 35 lety ** Připomeňte si tento průkopnický počítač v tematických článcích ** Podívejte se, jak funguje dnes

23.  4.  2017 | Pavel Tronner | 13

Správný počítač má alespoň dva monitory. Anebo je to jinak?

Správný počítač má alespoň dva monitory. Anebo je to jinak?

** David si nedokáže představit práci bez dvou a více monitorů ** Kubovi naopak stačí jeden a ve více displejích se ztrácí ** Jaký přístup je lepší?

23.  4.  2017 | Jakub Čížek | 59

Český Google Překladač začal používat umělou inteligenci. Konec „drahoušků zákazníků“

Český Google Překladač začal používat umělou inteligenci. Konec „drahoušků zákazníků“

** Google ve svém překladači roky používal statistickou technologii ** Nyní zavádí strojové učení a neuronové sítě ** Rozdíl by měl být zvláště na větších textech patrný už nyní

20.  4.  2017 | Jakub Čížek | 31

Brno otevřelo největší českou dílnu pro bastlíře. Kladívka, vrtačky, 3D tiskárny, laserové řezačky. Je tu vše

Brno otevřelo největší českou dílnu pro bastlíře. Kladívka, vrtačky, 3D tiskárny, laserové řezačky. Je tu vše

** Máte nápad, ale chybí vám stroje a pořádná dílna? ** Chcete postavit ptačí budku, nebo krabičku pro Arduino? ** Brno otevřelo svůj FabLab – laboratoř pro bastlíře

19.  4.  2017 | Jakub Čížek | 31


Aktuální číslo časopisu Computer

První test AMD Ryzen

Velké testy: 22 powerbank a 8 bezdrátových setů

Radíme s koupí Wi-Fi routeru

Co dokáží inteligentní domy?