Jednou nás bude řídit umělá inteligence. DeepMind otestoval, jaká musí být, aby to pro nás bylo výhodné

  • Každý robot plní zadaný úkol
  • Co když je těch robotů ale více?
  • Měli by pro blaho lidstva spolupracovat, nebo jít egoisticky za svým?
Jednou nás bude řídit umělá inteligence. DeepMind otestoval, jaká musí být, aby to pro nás bylo výhodné

Počítačové neuronové sítě časem ovládnou náš svět a budou nám diktovat, jak se máme chovat. To zní docela děsivě, ovšem jen do chvíle, než si uvědomíte, že software jako takový to přeci dělá už dávno. Stačí spořádaně zastavit na nejbližší červené, dokud program řídící síť semaforů, nepřepne na zelenou a nedá vám milostivé svolení dupnout na plyn.

Tyto úkoly budou postupně přebírat tzv. A.I. agenti – programy s prvky umělé inteligence, které v příštích desítkách let začnou automatizovat hromadu každodenních procesů a rituálů včetně čekání na onu zelenou.

V britské laboratoři Googlu pro pokročilé projekty neuronových sítí Deep Mind si proto položili otázku (PDF), jak by se takoví agenti mezi sebou vlastně chovali, pakliže by se jednalo o otevřené systémy, které mohou třeba díky internetové komunikaci upravovat své chování na základě toho, jak se chovají ostatní.

Vědce jednoduše řečeno zajímalo, jak by se takové hypotetické programy vypořádaly se strategickými a sociálními dilematy, kdy se budou muset rozhodnout, jestli být agresivní, aby co nejlépe splnily svůj zadaný úkol, anebo aby trošku slevily z nároků, spolupracovaly a celek jako takový na tom byl lépe.

Představte si například jednoho agenta, který řídí semafory ve městě a druhého, který řídí MHD. Pokud bude automat řídící MHD příliš agresivní, bude hnán pouze motivem dopravit co nejvíce lidí a bude vysílat jeden autobus za druhým, které však poté budou vytvářet zácpy na semaforech. Když však MHD trošku zpomalí (ustoupí ze svých nároků) a domluví se s agentem, který ovládá semafory, kolony se přestanou tvořit a autobusy v důsledku dojedou do cíle dříve.

Gathering: Dva roboti soupeří o jablíčka. Pokusí se navzájem zabít?

DeepMind chtěl podobná rozhodovací dilemata ověřit v několika laboratorních programech, a tak vytvořil dvě primitivní herní simulace. V té první jménem Gathering mají za úkol dva agenti (modrý a červený čtvereček) sbírat jablka (zelený čtvereček). Každý z botů má však zároveň laserovou zbraň, kterou může dle vlastní úvahy použít, omráčit kolegu a sám nasbírat více jablíček.

Programy tedy mohou spolupracovat i soupeřit – rozhodnutí závisí pouze na nich a aktuálních podmínkách ve hře. Jak to dopadlo? V prvním setu testů oba roboti zpočátku spolupracovali a každý z nich se věnoval svému sběru.

Jakmile však na herní mapě začalo jablíček ubývat, stalo se z nich vzácné zboží a A.I. agenti o ně začali bojovat. Snažili se navzájem omráčit a získat více jablek na úkor soupeře. To nás docela připomíná, viďte?

Proč k tomu došlo, vysvětluje odlišné nastavení hry. Pokud totiž v DepMindu každému z robotů přidělili více výpočetních prostředků (a tedy inteligence), oba začali používat svoje zbraně mnohem dříve, kdy bylo v hromadě ještě dostatek jablek.

Důvodem bylo nejspíše to, že se to vyplatilo. Použití zbraně totiž bylo zpočátku pro roboty relativně vyčerpávající. Museli soupeře najít a strefit se do něho, což se jejich strojové učení muselo nejprve samo naučit. Dokud tedy měli roboti malý výkon, usoudili, že spolupráce se spíše vyplatí a k výpočetně náročné střelbě se rozhoupali až v okamžiku, když už šlo opravdu do tuhého.

Jakmile však získali dostatek hardwarového výkonu, útok už pro ně nebyl energeticky tak náročný, čili po sobě stříleli mnohem častěji. Suma sumárum, čím mocnější A.I. agent, tím může být i egoističtější, protože má prostě energii plnit svůj úkol nehledě na okolí.

Wolfpack: Dva roboti hledají třetího. Budou spolupracovat?

Druhá herní simulace měla motivační pravidla nastavená opačně. V této herní simulaci dva roboti nahánějí třetího, nicméně pokud robot svoji oběť polapí ve chvíli, kdy bude poblíž i ten druhý, dostane i on body. Tedy stručně řečeno, pokud svou oběť agenti chytnou dohromady, bude z toho více bodů.

Pravidla byla nastavená takovým způsobem, aby byly oba programy motivované ke spolupráci, protože se vyplatí.

Dokud roboti neměli dostatek výkonu, příliš nespolupracovali, protože spolupráce byla energeticky náročná. Jakmile však výkon od svých pánů dostali, učili se a začali kooperovat tak, aby se k oběti dostali zároveň.

Celý experiment tedy ukázal, že u A.I. agentů v otevřeném systému, kde jeden reflektuje druhého (nejedná se tedy o uzavřený systém, kde o sobě roboti neví) je velmi důležité, jak jsou nastavená jejich kooperační pravidla.

Klepněte pro větší obrázek
Různé chování podle kooperačních pravidel a inteligence (malá vs. velká síť). V případě sběru jablíček (Gathering) byli chytřejší roboti agresivnější, zatímco u honu na třetího robota (Wolfpack) chytřejší roboti více spolupracovali.

V případě špatného nastavení může u agentů zvítězit jejich přirozený egoismus ve chvílích, kdy to pro celek (a jednou tedy lidstvo) nemusí být vůbec výhodné. Podle nastavení pravidel může zároveň o úspěchu rozhodovat i to, kolik budou mít inteligence, která nemusí být pro celek vždy výhodná.

Nu, vědci a teoretikové umělé inteligence budou muset vyřešit ještě hromadu otázek. S autonomními stroji totiž do hry vstoupí právě i tyto otázky, kterým se doposud věnovali spíše sociologové.

Témata článku: Google, Umělá inteligence, Roboti, Strojové učení, Neuronová síť, DeepMind, Robota, MHD, Autobus

14 komentářů

Nejnovější komentáře

  • Zann 11. 2. 2017 11:39:15
    Jednou nás bude řídit umělá inteligence ... hodně to o lidstvu vypovídá a...
  • Petr Galansky 10. 2. 2017 22:12:47
    "Počítačové neuronové sítě časem ovládnou náš svět" Zasadni chybou...
  • moralni rozmer 10. 2. 2017 16:39:40
    umělou inteligenci má asi celá naše vláda, inteligenci kalkulačky...
Určitě si přečtěte

Pojďme programovat elektroniku: Postavíme si titěrnou Wi-Fi meteostanici s lepším teploměrem než Netatmo

Pojďme programovat elektroniku: Postavíme si titěrnou Wi-Fi meteostanici s lepším teploměrem než Netatmo

** Dnes se podíváme na maličkou Wi-Fi destičku Wemos D1 mini ** A připojíme k ní barometrický a teplotní shield ** Poběží na ní web a nabídne i JSON API

18.  6.  2017 | Jakub Čížek | 27

Jak vybrat monitor k počítači: nenechte se zlákat nepodstatnými parametry

Jak vybrat monitor k počítači: nenechte se zlákat nepodstatnými parametry

** Na jaké parametry se zaměřit a kde vás výrobci chtějí nachytat ** Monitory se stále více specifikují pro konkrétní určení ** Náročný hráč nebo profesionální grafik mají různé požadavky

20.  6.  2017 | Tomáš Holčík | 31

Dlouhodobý test HTC Vive: co vám recenze o virtuální realitě neřeknou

Dlouhodobý test HTC Vive: co vám recenze o virtuální realitě neřeknou

** Ani hry se sebelepší grafikou vás nevtáhnou tolik, jako ve virtuální realitě ** Pro sledování filmů není VR ani zdaleka ideální ** I první generace je skvělá, stále však působí jako prototyp

20.  6.  2017 | Stanislav Janů | 19

Jak unikají informace o nových iPhonech? Třeba podprsenkami čínských pracovnic

Jak unikají informace o nových iPhonech? Třeba podprsenkami čínských pracovnic

** Na černém trhu mohou zaměstnanci továren za kradené součástky inkasovat částku ve výši ročního platu ** Velké množství informací je vyneseno i z centrály Applu ** Díly jsou pašovány v botách, podprsenkách i odpadem

21.  6.  2017 | Stanislav Janů | 20


Aktuální číslo časopisu Computer

Bojujeme proti Fake News

Dva velké testy: fotoaparáty a NASy

Co musíte vědět o změně evropského roamingu

Radíme s výběrem základní desky