Neuronové sítě pro umělou inteligenci budou výkonnější, Fujitsu má nové řešení, jak výkon rozdělit na více počítačů

  • Hluboké neuronové sítě nachází stále nová uplatnění
  • Rostou požadavky na výkon. Ten však není závislý čistě jen na hardwaru
  • Fujitsu našlo řešení efektivního rozdělení výkonu na více strojů
Neuronové sítě pro umělou inteligenci budou výkonnější, Fujitsu má nové řešení, jak výkon rozdělit na více počítačů

Systémy umělé inteligence a strojového učení pracující na principu hlubokých neuronových sítí (Deep Neural Networks, DNN) se hojně rozšiřují a nachází využití v dalších a dalších oborech. Rostou proto požadavky na jejich výkon a co nejefektivnější využití stávajícího hardwaru. S celkem přelomovou inovací teď přišlo japonské Fujitsu, které vyvinulo nový mechanismus distribuce paměti pro hluboké neuronové sítě.

Více výkonu pro umělou inteligenci

Fujitsu se zaměřilo na možnost efektivního rozdělení výkonu na více strojů. To u běžných výpočtů není žádný problém, ale u hlubokých neuronových sítí je řízení paralelní distribuce náročnější úloha, která doposud nebyla zcela uspokojivě vyřešena. Nové řešení je hardwarové nezávislé a dokáže přitom pro jednu úlohu DNN využít více hardwarových akcelerátorů.

„S naší technologií je možné rozšířit velikost neuronových sítí, které se mohou učit na více strojích, což umožňuje rozvíjet přesnější, velké modely DNN,“ řekl k novince Dr. Tsuneo Nakata, výkonný ředitel Evropských laboratoří Fujitsu.

Klepněte pro větší obrázek
Paměť jednotlivých grafických akcelerátorů už mnohdy nestačí na načtení dílčí úlohy, je proto potřeba všechny dostupné paměťové prostředky efektivně distribuovat

Nové řešení dosahuje tohoto nového procesu distribuce paměti transformací vrstev libovolně navržených neuronových sítí do ekvivalentních sítí, v nichž některé nebo všechny vrstvy jsou nahrazeny několika menšími podřízenými vrstvami. Tyto podřízené vrstvy jsou uzpůsobeny tak, aby funkčně odpovídaly původním vrstvám, ale při spuštění jsou výpočetně mnohem efektivnější.

Při testech na open source technologii pro strojové učení Caffe, které je hojně využíváno různými vědeckými institucemi, dosáhlo nové řešení více než 90% efektivity v distribuci paměti při transformaci plně propojených vrstev sítě AlexNet do několika grafických procesorů od Nvidie. Využívat se přitom mohou jakékoli jiné akcelerátory, třeba Xeon Phi od Intelu, FPGA, ASIC atp.

Co to bude znamenat pro vývoj a výzkum? Že na stávající hardwarové struktuře poběží daleko rozsáhlejší a výkonnější DNN. To umožní nasazení náročnějších aplikací využívající strojové učení a umělou inteligenci, ať už se jedná o různé diagnostické analýzy ve zdravotní vědě, modelování lidské řeči nebo třeba rozpoznávání objektů, klasifikace satelitních snímků, analýzy finančních trhů, meteorologických modelů atp. Možností využití stále přibývá.

Co všechno dokáže strojové učení a umělá inteligence ukazuje? Podívejte se na video s různými aplikacemi:

Váš názor | Lidé budou multiplanetární rasou. Elon Musk má plán, jak toho dosáhnout

Témata článku: Umělá inteligence, Strojové učení, Fujitsu, Profesionální grafické karty, Vrstva, Nový mechanismus, Hardwarový akcelerátor, Více, Meteorologický model, Řešení, Atp, Načtení, Neural networks, FPGA, Inteligence, Infarkt, Obří čip, Finanční trh, ASIC, DNN, Japonské fujitsu, Nové řešení, Mechanismus, Instituce

Určitě si přečtěte


Aktuální číslo časopisu Computer

Zachraňte nefunkční Windows

Jak nakupovat a prodávat kryptoměny

Otestovali jsme konvertibilní notebooky

Velký test 14 herních myší