AI tým Googlu, DeepMind, zodpovědný za vývoj umělé inteligence a její pochopení lidského myšlení, odhalil nový způsob, jak neuronovou síť učí multitaskingu a umění dělat několik úkonů najednou. Používá k tomu pokročilé algoritmy a překvapivě i videohry.
Tým má za sebou hned několik zajímavých pokusů s umělou inteligencí a ten nejnovější nese název IMPALA, nebo také Weighted Actor-Learner Architectures. Kombinuje tréninkový režim, postavený na kódu akční hry Quake III od studia ID Software a rozhraní, na kterém běží staré hry z platformy Atari. 57 her najednou, abychom byli přesní.
Umělá inteligence prostřednictvím programu IMPALA hraje paralelně celou řadu videoher a posílá informace od týmu virtuálních "hráčů" k týmu virtuálních "učedníků". Je to jako kdyby hrálo hru 30 živých hráčů s tím, že veškeré zkušenosti dostane do hlavy jeden "vyvolený". Výsledky jsou působivé.
Níže se můžete podívat, jak hraje testovací level živý hráč:
A zde můžete porovnat, jak se jej zkouší umělá inteligence skrze program IMPALA:
Cílem tohoto programu je naučit umělou inteligenci zpracovávat tisíce jednotlivých snímků a situací najednou, neboli multitasking, a IMPALA je zdá se skvělým způsobem, jak toho docílit. Jedině pak bude možné neuronové sítě využít v projektech, jako je samořídící auto či dalších autonomních zařízeních, které by mohly potenciálně poškodit prostředí či uživatele samotného.