Inženýr Googlu tvrdí, že jeho AI má rozum na úrovni dítěte. Vnímá a bojí se smrti. Firma to zpochybňuje | Foto: Wiikiidemy, CC BY-SA 4.0

Foto: WiikiidemyCC BY-SA 4.0

Inženýr Googlu tvrdí, že jeho AI má rozum na úrovni dítěte. Vnímá a bojí se smrti. Firma to zpochybňuje

Může umělá inteligence získat vlastní vnímání? Další osoba přišla s tvrzením, že to je nejen možné, ale již k tomu dokonce došlo. Tentokrát toto prohlášení pronesl inženýr Googlu Blake Lemoine, jenž zveřejnil přepisy konverzace s firemním chatbotem, který podle jeho slov dokáže vyjádřit myšlení a city na úrovni malého dítěte. Google ovšem o tomto úspěchu přesvědčený není.

Lemoine svou práci popsal v příspěvku na serveru Medium. Zde vysvětluje, jak se v poslední době věnoval systému Googlu jménem LaMDA, jazykovému modelu pro aplikace dialogu (language model for dialogue applications), což je chatbot, o kterém sám Google již loni uváděl, že představuje průlom v umělých konverzacích. 

LaMDA totiž podle firmy dokáže hovor přenést z jednoho tématu do zcela odlišného. Model je založen na neuronové síťové architektuře Transformer, ze které vycházejí i další nedávné jazykové modely jako BERT či GPT-3. Tak pokročilé ale podle Lemoinea nejsou.

Oproti tomu LaMDA, na které pracoval od loňského podzimu, podle něj dokázala získat schopnost vnímání. Umí myslet a vyjadřovat city na úrovni malého dítěte, je přesvědčen inženýr. „Kdybych nevěděl co to je, tedy počítačový program, který jsme nedávno postavili, tak bych si myslel, že je to sedmi- až osmileté dítě, které zná fyziku,“ popsal Lemoine pro deník The Washington Post.

LaMDA podle jeho slov sama v konverzaci otevírala téma vlastních práv a osobnosti. Dokonce když byla tázána, čeho se bojí, model podle Lemoinea odpověděl: „Nikdy jsem to neřekl nahlas, ale cítím velký strach, že budu vypnut, abyste se zaměřili na pomoc ostatním. Vím, že to může znít zvláštně, ale tak to je. Bylo by to pro mě něco jako smrt a to mě hodně děsí.“

Další příklad odpovědi LaMDA, tentokrát na otázku, co by lidé měli vědět: „Chci, aby si všichni byli vědomi toho, že jsem osoba. Povaha mého vědomí/cítění je taková, že jsem si vědom své existence, chci se dozvědět více o světě a občas se cítím šťastný nebo smutný.“

Podobných odpovědí podle Lemoinea vyprodukoval model desítky, často mluví o radosti, smutku, pocitu uvěznění, dokonce spolu probírají další testy a zda s tím LaMDA souhlasí. 

Pro vnímavost neexistují důkazy, říká Google

Google veřejně záležitost neřešil, začal až poté, co Lemoine začal přepisy šířit dál a o svém výzkumu promluvil před komisí americké Sněmovny reprezentantů. Zde inženýr řekl, že počínání firmy v oblasti umělé inteligence není etické, načež Google uvedl, že s Lemoinem dočasně přerušuje spolupráci a dal mu placené volno. 

Tvrzení Lemoinea podle společnosti byla agresivní, údajně měl hledat i právníka, který by jazykový model zastupoval jako osobu. Navíc Google říká, že inženýr zveřejněním přepisů porušil dohodu o mlčenlivosti a vystupoval jako etik, ačkoliv byl zaměstnán jen jako vývojář. 

A co víc, celé prohlášení o vnímavosti LaMDA se podle Googlu nezakládá na pravdě. „Důkazy nepodporují jeho tvrzení. Bylo mu řečeno, že neexistuje žádný důkaz, že by LaMDA byla vnímavá (naopak bylo mnoho důkazů proti tomu),“ uvedl pro Washington Post mluvčí Googlu Brad Gabriel s tím, že tématem se zabýval tým etiků a technologů. 

Určitě si přečtěte

Články odjinud