Umělá inteligence

První neuronové sítě už možná získaly vědomí, tvrdí OpenAI. Buďte ale klidní, stejně se to nedá ověřit

  • Jeden ze zakladatelů laboratoře OpenAI publikoval kontroverzní tweet
  • Rozjela se pod ním bohatá debata vědců
  • Může mít AI vůbec vědomí? A dokážeme to zjistit?

Současné velké neuronové sítě už možná mají náznak vědomí, napsal před pár dny Ilya Sutskever na Twitteru, a způsobil tak bouři mezi ostatními renomovanými akademiky.

Proud reakcí na stručnou zprávičku bez dalšího vysvětlení po necelém týdnu připomíná spíše mezinárodní vědecký kongres plný jmen z věhlasných univerzit a přidávají se také experti z Facebooku, Tesly a dalších korporací.

Není divu, Sutskever totiž není jen tak někdo, ale celebrita z oboru. Nějaký čas strávil v týmu Google Brain a v roce 2015 s pomocí Elona Muska a dalších investorů založil laboratoř OpenAI, kterou následně i vedl. Dnes Sutskever šéfuje výzkumu a věnuje se AGI.

AGI? Co to proboha znamená? Zkratku AI pro anglické dvousloví artificial intelligence zná po letech bezbřehé propagace už naprosto každý. Obě slovíčka jsou bohužel natolik nadužívaná, až ztratila původní a jasnou definici. Tedy pokud ji vůbec kdy měla.

Výrobci telefonů jsou dnes schopni za písmenka AI schovat prakticky jakoukoliv softwarovou automatizaci, no a pro autory sci-fi povídek je to naopak synonymum nejvyšší umělé myslící bytosti. Čert aby se v tom vyznal.

Každý den se setkáváte se slabou AI

A tak bychom měli po těchto zkušenostech mluvit spíše o slabé a silné AI. Tu první znáte z každodenního života. Není to žádný Skynet, Matrix nebo snad HAL 9000, ale třeba automatická katalogizace fotografií podle obsahu, ve které exceluje zejména služba Google Photos, ale v určité míře ji nabízejí i Microsoft a Apple. Tedy technologie, která používá strojové učení k nějakému úzce vyhraněnému (narrow AI) a relativně jednoduchému účelu.

ae6d9972-88eb-4955-accd-cc4e273daec8
Aplikace slabé AI v rozpoznávání fotografií podle obsahu na službě Google Photos

Univerzální AI z románů a povídek je naopak tím druhým typem umělé inteligence – tím silným –, no a pokud svými schopnostmi překoná ve všech rozumových aspektech člověka, pak je to konečně superinteligence. Anebo také AGI, tedy artificial general intelligence!

Rozpálená plotna a zpětnovazební učení

AGI je snem mnoha počítačových vědců a nevěnují se ji zdaleka jen ti z OpenAI, ale samozřejmě i dámy a pánové od věhlasné konkurence DeepMind (Alphabet), kteří se loni pochlubili odvážnou hypotézou Reward is Enough – Odměna stačí.

Zabývají se v ní poměrně třaskavou myšlenkou, že by mohlo k vývoji AGI stačit běžné zpětnovazební počítačové učení (reinforcement learning), které používá většina medializovaných neuronových sítí současnosti.

c3d0485a-5aab-4b8e-b323-68b3ee8ff35b
Základní schéma zpětnovazebního učení 

Základní princip je vlastně docela jednoduchý a napodobuje učení nás samotných a dalších živých tvorů: Tedy učení pomocí odměny, anebo mnohdy i nepříjemného trestu. Když malé dítě poprvé sáhne na rozpálenou plotnu, dostane natolik bolestivou zpětnou vazbu, že se synaptické sítě v jeho mozku poslušně propojí takovým způsobem, aby to plačící prcek už nikdy nezopakoval.

Simulátor nožiček

Softwarové neurony pracují velmi podobně. Dejme tomu, že jsme navrhli síť, která se má naučit (tedy korektně nastavit váhy svých rozhodovacích neuronů) chodit pomocí panáčka ve virtuálním prostředí počítačového fyzikálního simulátoru.

Zpětnovazební učení pohybu v simulátoru:

Panáček bude chodit jen v případě, že udělá správný krok. Síť ale na začátku netuší, jak takový krok vypadá. Bude proto zkoušet pohybovat panáčkem tak dlouho, dokud souhra všech jeho počítačových kloubů nepovede k tomu, že konečně vykročí vpřed.

Jakmile se neuronka dozví, že panáček udělal krok (úspěšná zpětná vazba), může si uložit svoji aktuální konfiguraci jako stav, který vedl ke splnění úkolu. V praxi je to pochopitelně mnohem komplikovanější.

AGI se musí sama naučit, co je vlastně odměnou a cílem učení

Kdybychom mohli podobným způsobem vytvořit AGI, byl by to samozřejmě nesmírný úspěch, sami vědci z DeepMindu však mírní nadšení.

1bec13a4-9a2d-40c0-af44-e093a52f30a4
OpenAI zkoumá, jestli lze zpětnovazebním učením vytvořit všechny aspekty univerzální AI 

Aby si totiž neuronka pomocí zpětné vazby vytvořila kompletní model reality, musela by nejprve zažít všechny myslitelné situace a musela by si také nějakým způsobem sama stanovovat, co vše vlastně hledá, co je cílem učení a co odměnou.

To vše dnes dělá člověk. Neuronka se sice může naučit pařit Warcraft stejně jako lidský hráč, ale byl to vědec, který ji na začátku řekl, aby to udělala.

Jak by mohlo vypadat učení univerzální AI

Nicméně, dejme tomu, že máme k dispozici naprosto hypotetický stroj s exabajtovou pamětí, exascalovým výkonem, a hlavně jakousi dokonalou architekturou univerzální neuronové sítě, jejímž cílem je hledání všech možných vzorů.

Učení by mohlo fungovat třeba tak, že AI agenta připojíme k internetu a do začátku mu dáme jen schopnost zapisovat a číst bity z ethernetového rozhraní. Program po tisících a tisících pokusů přijde na to, že při správné konstelaci zapisovaných bitů druhá strana náhle odpoví. Agent tedy prostým zkoušením všech možných kombinací a čekáním na odměnu vytvořil validní frame nebo paket nějakého nízkoúrovňového protokolu síťového ISO/OSI modelu.

V následujícím kole stroj adekvátně navýší cíl učení na další úroveň a bude pokračovat. Po dalších miliardách a miliardách cyklů pokus-stav-odměna stroj pochopí taje TCP/IP, ovládne HTTP a začne zkoumat World Wide Web.

Prvních pár set náhodně vygenerovaných internetových adres nebude fungovat, jednou se ale stroj strefí a narazí na Wikipedii, na které stráví biliony cyklů pročítáním encyklopedických záznamů a začne modelovat zjevný fakt, že se nejedná jen o soubor náhodných znaků Unicode, ale že má text jakousi vnitřní strukturu.

Zkrátím to, po nějakém čase se z našeho hypotetického stroje stane skvělý lingvista, který by dokázal generovat lidsky srozumitelné texty na téměř libovolné téma jako třeba slovní neuronka GPT-3 (slabá/narrow AI) od nám už dobře známé laboratoře OpenAI.

Obě sítě se ale naprosto liší v tom, jak došly k cíli. Zatímco úzce zaměřená neuronka GPT-3 se sama o sobě bez pomoci člověka už nikam neposune, naše univerzální AGI se může dále vyvíjet – stačí, aby objevila videa na YouTubu nebo TikToku.

Znalost všeho na internetu by byla asi rozměrnější než internet samotný

Pokud bychom měli opravdu neomezené výpočetní a paměťové zdroje, možná by si náš stroj vytvořil model všech myslitelných informací, které mohou protéci skrze ethernetovou přípojku. Celý náš kybersvět.

Zůstává ovšem otázkou, jestli by se takový superprogram nezhroutil pod svojí vlastní vahou – tedy jestli by nebyl statistický model všech myslitelných situací na internetu rozměrnější než internet samotný.

Je vůbec vědomí evoluční samozřejmostí?

Jenže, pokud bychom všechny tyto problémy nějakým zázračným způsobem vyřešili a učící schopnosti superpočítače by byly prakticky bezbřehé, mělo by to snad automaticky znamenat i to, že stroj po nějakém čase získá vědomí? Je to snad univerzální evoluční pravidlo a logické vyústění jakéhokoliv komplexního systému?

No, a to se obloukem konečně dostáváme zpět k úvodu, právě na to totiž upozorňují kritici, kteří reagují ve vlákně na původní tweet šéfa výzkumu v OpenAI.

Jak rozlišit vědomí od jeho simulace

Studium umělého vědomí má za sebou desítky let myšlenkových experimentů, naráží ale na zjevné principiální překážky. Problém je už v samotné definici toho, co je to vlastně vědomí a jak funguje. Skutečný pocit sebeuvědomění je totiž výsostně subjektivní a ve své podstatě nepřenositelný.

Metafyzicky řečeno, všichni do jednoho cítíte, že právě teď existujete – a je to jistě ten nejpříjemnější pocit, který jste kdy zažili –, ovšem jen těžko najdete způsob, jak stejnou schopnost prokázat i u někoho dalšího. Co když jsou všichni ostatní jen věrohodná simulace?

44966292-d525-4334-b4df-19ade8d4671e
Toto je zelený obdélníček, to všichni vidíte. Co je to ale samotný vjem zelené barvy? Vždyť je to jen sled bioelektrických vzruchů z očního nervu 

Krásným příkladem podobné nejistoty jsou i naše smysly. Většina z vás nejspíše vidí a slyší, ale nelze ověřit, jestli při pohledu na obdélník výše všichni vnímáme opravdu to samé. Pokud nebudeme barvoslepí, sice rozpoznáme, že je zelený – máme pro ten zvláštní vjem všichni jedno a totéž slovo –, ale co když jej každý mozek interpretuje po svém? Je to ostatně jen bioelektrický vzruch z očního nervu.

Když si za pár kaček pořídíte prototypovací modul RGB čidla TCS34725, připojíte ho třeba k Arduinu a namíříte na zelený obdélník, i to korektně identifikuje jeho barvu, asi se ale všichni shodneme, že těch pár fotodiod v nitru senzoru nemá vědomí.

f118a655-0bec-4eb9-a9e6-ed47f73afb2a
RGB čidlo také rozpozná zelenou barvu, ale vědomí asi nemá

Vtip ovšem spočívá v pravém opaku: Jak bychom vlastně dokázali, že ho to čidlo případně má? Jak se má navenek věrohodně projevit? Sdělit nám to písemnou formou v perfektní angličtině? K tomu stačí už zmíněný a naprosto nevědomý textový generátor GPT-3. Slavný Turingův test proto není dokladem umělého vědomí, ale jen toho, že s námi nějaký automat dokáže vést smysluplný dialog. 

O existenci superinteligence se asi nedozvíme

Pokud nám chybí test, jak ověřit existenci uvědomění si i zdánlivě triviálních smyslů a jak to všechno odlišit od pouhé simulace, nedokážeme stejně tak ověřit, jestli této mentální úrovně docílila i jakákoliv pokročilá umělá inteligence, kterou jsme kdy naprogramovali.

Vědci zároveň upozorňují na to, že sebeuvědomění nemusí být vůbec univerzální – možná se bude v počítači projevovat úplně jinak. A co je zdaleka nejhorší, jak už jsme si řekli zkraje loňského roku, to, že jsme právě stvořili superinteligenci, se s největší pravděpodobností stejně jen tak nedozvíme, protože nebudeme mít jako lidstvo vlastní mentální kapacitu k tomu, abychom rozpoznali, že k tomu opravdu došlo.

Nejspíše to dokáže jen nějaká další kontrolní superinteligence, která bude tu první neustále analyzovat. Jenže to se už trošku začínáme točit v kruhu, aby toho totiž byla schopna, ani ji nevytvoří člověk, ale bude se muset vytvořit sama třeba právě pomocí nějakého dokonale univerzálního zpětnovazebního generátoru AGI.

Ilya Sutskever, který si chtěl podle svých kolegů jen zatrolit na Twitteru, tak měl svým způsobem pravdu. Možné je vše, ale my se to nikdy nedozvíme, protože to nedokážeme změřit.

Diskuze (134) Další článek: Dva Texasané využívají k těžbě bitcoinů plyn, který by jinak spálili. Vydělali miliony a ušetřili životní prostředí

Témata článku: , , , , , , , , , , , , , , , , , , , , , , , , ,