Umělá inteligence

Superinteligenci nedokážeme ovládat a nejspíše se nedozvíme, že už tam někde je

  • Firmy i organizace včetně EU připravují etické kodexy pro A.I.
  • Vědci z Madridu zkoumali, jestli je budeme moci aplikovat na A.I. 2.0
  • A je tu háček, superinteligence pro nás totiž bude neuchopitelná

Před třemi lety si část inženýrů z Googlu začala stěžovat na spolupráci firmy s americkou armádou. Nelíbilo se jim především to, že by mohly najít vojenské využití i některé pokročilé softwarové algoritmy z ranku dnes tolik citované umělé inteligence.

Na stranu kritiků se postupně přidali i klíčové mozky z laboratoří pro strojové učení včetně britského DeepMindu, Google spolupráci přehodnotil a v létě téhož roku sestavil jeden z prvních etických kodexů pro umělou inteligenciA.I. Principes.

Víceméně navazuje na slavné zákony robotiky Isaaca Asimova ze čtyřicátých let minulého století a píše se v něm třeba to, že účelem chytrých algoritmů zítřka má být prospěšnost lidské společnosti a co je ještě mnohem důležitější, A.I. má být navržená tak, aby byla kontrolovatelná člověkem.

Ani dnešní neuronky nedodržují etický kodex

O rok později představila hrubý náčrt svých robotických zákonů také Evropská unie – respektive její expertní skupina HLEG A.I. (High-Level Expert Group for Artificial Intelligence). Podstata je prakticky totožná s Googlem:

  • A.I. musí být pod kontrolou člověka
  • A.I. musí sloužit lidstvu
  • A.I. musí ctít soukromí a nesmí nikoho diskriminovat

Těch bodů je v evropském etickém kodexu více, tyto jsou ale nejpodstatnější a nutno podotknout, že s nimi nejsou současné neuronové sítě vždy kompatibilní. Typickým příkladem jsou všechny ty experimentální chatboty na bázi neuronových sítí a generátory textu včetně dnes nejspíše nejpokročilejšího GPT-3, u kterých se brzy ukázalo, že diskriminují menšiny, podléhají rasismu atp.

A.I. je pouze tak morální, jak morální jsou data, na kterých se učila

Dalo se to ostatně očekávat, neuronová síť chatbota se totiž musela naučit komunikovat četbou tisíců a tisíců anglofonních textů. No, a jelikož tyto texty v posledních sto letech sepisoval především bílý muž, odpovídal mu nakonec i znalostní model chatbota, který preferoval euroatlantický průměr a neměl příliš velké pochopení třeba pro muslimy.

Klepněte pro větší obrázek
Vzpomínáte na A.I. chatbota Tay na Twitteru? Před lety jej tam vypustil Microsoft, aby se zdokonaloval diskuzí s ostatními. Vtipálci jej ale brzy přeučili k obrazu svému.

Poněkud úsměvné aférky ze světa generativních neuronových sítí vytvářejících text nicméně ukázaly, že jejich lidští designéři nesplnili jak podmínku naprosté kontroly nad výsledným dílem, tak princip (ne)předpojatosti.

Jistě, když takový experimentální chatbot začne na Twitteru sdílet třeba rasistické hlášky, je to ještě taková úsměvná nerdovina, ale jen do chvíle, než by někoho napadlo na stejné technologii postavit třeba automatizovaný imigrační pohovor na přetíženém americkém letišti. To už by byl problém.

Detektor kočiček nemusí být bytost

Suma sumárum, ani současná A.I. není za všech okolností zcela kompatibilní s pomalu se rodícími etickými kodexy. Přitom se jedná o naprosto primitivní technologii. Ano, vážně, současné neuronové sítě jsou z hlediska střednědobého a dlouhodobého potenciálu umělé inteligence teprve hodně hloupé vlaštovky a s obecnou umělou inteligenci, jak ji známe ze sci-fi povídek, má pramálo společného.

To ale není chyba, od obrazového detektoru, který na službách Google Photos, OneDrive aj. automaticky a podle skutečného obsahu na snímku štítkuje soubory pro jejich snazší dohledání, totiž opravdu neočekáváme lidskou inteligenci. Ta by byla spíše na škodu. Je to stále jen běžný počítačový algoritmus, který je sám o sobě úplný idiot. Naštěstí.

Klepněte pro větší obrázek
Aplikovaná umělá inteligence současnosti má daleko k superpočítači HAL 9000 a nikdo to po ní naštěstí (zatím) ani nechce. Stačí, když umí rozpoznávat, co je na fotografiích, a nabízí tak praktickou funkci, která reálně pomáhá.

Superinteligence

Tuto primitivní a úzkoprofilovou výseč technologií z ranku A.I. ale přesto neustále srovnáváme s onou obecnou A.I., která má v angličtině hromadu názvů, přičemž tím nejatraktivnějším je superintelligence.

Tedy taková umělá inteligence, která překonává člověka ve všech rozumových aspektech. Zatím nevíme, kdy (a jestli vůbec) ji dokážeme naprogramovat, matematici a filozofové ale její dopady zkoumají už celé roky.

Tisíce a tisíce navzájem propojených neuronek

Kdybychom stavěli superinteligenci na současných technologiích, mohli bychom si ji představit jako organizmus tisíců různě specializovaných a propojených (dnešních) neuronových sítí.

Jedna bude detekovat objekty v obrazu, druhá bude syntetizovat text, třetí hlas, další bude hrát šachy, pátá bude všechny neuronky propojovat schopností abstraktního myšlení, šestá bude určená k tomu, aby tyto stávající neuronové sítě dokázala libovolně přeučovat a zušlechťovat, no a sedmá k tomu, aby mohla generovat další neuronky na libovolné téma.

Klepněte pro větší obrázek
Pokud je internet propojenou sítí dalších počítačových sítí, superinteligenci bychom si mohli představit jako strukturu tisíců a tisíců specializovaných neuronových sítí.

Taková superinteligence by už byla schopná autonomního rozvoje bez zásahu člověka – byť se bude stále jednat jen a pouze o soubor podprogramů bez schopnosti sebeuvědomění, protože ani ti nejlepší matematici a filozofové vlastně netuší, co to to lidské sebeuvědomění vlastně je a jak na té nejnižší úrovni neuronových synapsí funguje. Čili jej zatím ani nemůžeme simulovat – naprogramovat.

I bez toho, aby si nějaký superpočítač budoucnosti, třeba Ural 3, uvědomil podstatu věty „Já jsem,“ ale budeme muset zajistit, aby přinejmenším dodržoval ona etická pravidla a nedošel k závěru, že nejlépe udělá, když odpálí nějakou tu ICBM. Ne proto, že to chce jeho , ale prostě proto, že to bylo výslednicí nějaké neuvěřitelně složité a ve své podstatě náhodné matematické rovnice.

Vědci z Madridu: Superinteligenci nedokážeme kontrolovat

Podle současného stavu vědění to ale dost možná neodkážeme zajistit. Právě s tímto výsledkem skončil výzkum skupiny vědců pod vedením profesora Manuela Alfonsecy z Madridské autonomní univerzity, kteří své závěry publikovali v časopisu Journal of Artificial Intelligence Research a článku Superintelligence Cannot be Contained: Lessons from Computability Theory.

Ostatně, to samé už před lety nastínil i futurolog Nick Bostrom, podle kterého superinteligence dříve či později obejde jakýkoliv obejitelný předpis stanovený člověkem, protože je prostě lepší než člověk.

Alfoneskův tým se na problém podíval podrobněji – matematicky. Pokud bychom měli navrhnout algoritmus, který by měl zamezit superinteligenci, aby ublížila lidem, musí takový algoritmus neustále analyzovat všechny operace superinteligence a odhadovat, jestli nepovedou k tomu, že ublíží člověku. Pokud by se tak stalo, program zatáhne za pomyslnou brzdu a superinteligenci vypne.

Podle vědců však není možné vyvinout algoritmus, který by simuloval chování superinteligence a s dostatečnou pravděpodobností by dokázal odhadnout konsekvence jejího chování. Těch možností je už příliš mnoho, jedná se o nespočitatelný problém a limitem je tzv. Riceův teorém.

Na superinteligenci by mohla dohlížet jen nějaká další superinteligence

Stručně řečeno, vývoj takového algoritmu, který by neustále dohlížel na jednání superinteligence, není v možnostech programátorů z masa a kostí. Náš mozek na to už nestačí. Na jednání superinteligence by tedy mohla dohlížet leda jen nějaká další superinteligence. Tím se ovšem dostáváme do začarovaného kruhu, protože chybí odpověď na otázku, jakým způsobem docílíme toho, aby kontrolní etická superinteligence byla opravdu etická.

S tímto problémem se přitom setkáváme už nyní u našich současných a věru omezených neuronových sítí. Už dnes totiž počítačoví vědci zkoumají možnosti třeba takových experimentálních neuronek, které dokážou identifikovat strojově generovaná data. Data, která jsou už natolik věrohodná, že je sám člověk rozpoznat nedokáže, a proto si musí na pomoc povolat software. S nástupem deep fake news v kontextu informačních válek to bude v příštích letech ohromné téma.

Klepněte pro větší obrázekKlepněte pro větší obrázek
Text vlevo napsal člověk, text vpravo pak strojový generátor GPT-2. Neuronová síť GLTR se naučila, jak texty generují typické počítačové A.I. algoritmy, a tak je dokáže odhalit.

Takovému strojově naučenému defenzivnímu algoritmu poté musíme věřit, že dokáže rozeznat zrna od plev, byť vnitřní struktura jeho naučeného modelu je už natolik složitá, že není v silách lidského mozku, aby se v ní někdo skutečně vyznal.

Jistě, je to jen program, který se nejvýše splete a za deep fake news omylem označí třeba skutečný vánoční projev českého prezidenta, pokud ale už na této úrovni ztrácíme povědomí o tom, co se to přesně stroj naučil, je zřejmé, že by bylo zcela naivní domnívat se, že dokážeme pochopit, co se opravdu učí (a jak) hypotetická superinteligence.  

Naštěstí to bude ještě chvíli trvat

Tým Manuela Alfonsecy naštěstí přišel ještě na jednu podstatnou věc. Tedy na dvě. Riceův teorém, který omezuje naše schopnosti pochopit supersložitý výpočetní problém, možná omezuje i to, aby nějaká supersložitá superinteligence vůbec vznikla. Sama o sobě se totiž stane obětí své složitosti. Alespoň tedy pokud se zrodí na současných počítačových principech.

A pokud Riceův teorém nakonec nebude překážkou k jejímu vzniku, můžeme prý být přinejmenším ještě několik desítek let v klidu – a podle skeptiků spíše stovky let –, než nějakou superinteligenci opravdu dokážeme naprogramovat.

Možná se ani nedozvíme, že už ji máme 

Ostatně, my ji programovat stejně nebudeme. Zapomeňte na podivínského vědce z hollywoodských filmů, který ji bude sepisovat po večerech a jen za přítomnosti dvou apatických kocourů. Bude to nad jeho přírodou dané možnosti.

Sepíšou ji leda nějaké další neuronové sítě vycvičené na generování obecných a vysoce komplexních algoritmů. A nejspíše se ani nedozvíme, že už taková superinteligence opravdu vznikla, nebudeme mít totiž adekvátní technologii, která by to dokázala posoudit a interpretovat omezenému lidskému mozku.

Diskuze (87) Další článek: Nové baterie StoreDot slibují možnost dobít elektromobil během pouhých pěti minut

Témata článku: Technologie, Microsoft, Google, Umělá inteligence, Věda, Internet, Výzkum, Twitter, Strojové učení, Evropská unie, Neuronová síť, Isaaca Asimov, Kodex, PRAM, E -) Bílý, Nick Bostrom, GLTR, Google Photos, Etický kodex, DeepMind, Madrid, Náčrt, Ural, Text, Vědec



Sex manželských párů? Jen výjimečně. Ložnice ovládnou roboti s umělou inteligencí

Sex manželských párů? Jen výjimečně. Ložnice ovládnou roboti s umělou inteligencí

** Sex manželských párů jen při zvláštních příležitostech. ** Ložnice ovládnou sexuální roboti s umělou inteligencí. ** I to je jeden ze závěrů Mezinárodní robotické konference.

Filip KůželJiří Liebreich
RobotiSexUmělá inteligence
Výrobci už nebudou dotovat polovodiče ze svého. Připravte se na brzký nárust cen telefonů a tabletů

Výrobci už nebudou dotovat polovodiče ze svého. Připravte se na brzký nárust cen telefonů a tabletů

** Samsung už nebude dotovat čipsety ze svého ** Vyšší náklady na logistiku a materiály zdraží čipsety až o 20 % ** Zvýšené ceny čipsetů zřejmě ovlivní ceny telefonů před Vánoci

Martin Chroust
3nmPolovodičeMobilní procesory
Zítra začíná veletrh Amper. Přijďte za námi na Computer stage, tady je program

Zítra začíná veletrh Amper. Přijďte za námi na Computer stage, tady je program

**Veletrh Amper se po dvou odkladech vrací ** Těšíme se na vás na brněnském výstavišti ** Zde je program Computer Stage

Časopis Computer
VeletrhČasopis Computer
Nové notebooky Asus Zenbook a Vivobook: Výkonné procesory v tenkém těle a vyšperkované displeje

Nové notebooky Asus Zenbook a Vivobook: Výkonné procesory v tenkém těle a vyšperkované displeje

** Vyzkoušeli jsme si Zenbook Pro 14 Duo OLED ** FullHD rozlišení budete u novinek hledat marně ** Všude je OLED, IPS plní jen doplňkovou roli pro pomocné displeje

Tomáš Holčík
AsusNotebooky
Recenze Samsung Smart Monitor M8: neuvěřitelně chytrý, ale spíš stylový monitor

Recenze Samsung Smart Monitor M8: neuvěřitelně chytrý, ale spíš stylový monitor

** S jedním zařízením nepotřebujete samostatně monitor a televizor ** Cílí hlavně na majítele notebooků ** Doplňkovou kameru můžete odpojit

Tomáš Holčík
MonitorySamsung
25 nejlepších filmových parodií, které můžete vidět. Víme, kde je najdete online

25 nejlepších filmových parodií, které můžete vidět. Víme, kde je najdete online

Filmové parodie jsou divácky velmi vděčné a mezi filmaři oblíbené. Tvůrci v nich mohou totiž zcela beztrestně vykrádat cizí díla a v jejich nápodobě popustit uzdu své fantazii. Vybrali jsme nejlepší zahraniční i české parodie.

Jaromír PukMarek Čech
Filmy, které musíte vidět
Jak rozmazat dům, aby vás sousedi nemohli šmírovat. Jde to v Mapách Google i na Mapy.cz

Jak rozmazat dům, aby vás sousedi nemohli šmírovat. Jde to v Mapách Google i na Mapy.cz

** Nelibí se vám, když cizí lidé okukují váš dům? ** Všechny mapové aplikace nabízejí možnost rozmazání snímku ** Máme návod pro Apple Maps, Bing Maps, Mapy Google a Mapy.cz

Karel Kilián
SoukromíNávodyMapy