a kdo rozhodne (v případě rizikové situace) jestli je důležitější život řidiče anebo malého dítěte na byciklu ?
Proč to potřebuješ vědět?
Waymo má najeto 10 milionů mil a ještě takový problém řešit nemuselo. Nebo pokud ano, tak nedošlo ani ke zranějí. Vaše zmiňovaná situace je tak vzácná, že se jí nemá smysl příliš zabývat. Navíc vozy Wayma mají speciální pojistku, kdy za chyby auta ručí pojišťovna.
Ručení pojišťovnou je sice hezké, ale život to nikomu nevrátí. A dilema posádka - člověk na přechodu, není maličkost, která by se dala přehlížet. V obou případech jde o zdraví, či životy a který je odsouzen k zániku? Kdo má odvahu to rozhodnout? V podstatě někoho odsoudit k bolesti, nebo dokonce k smrti? To je těžké dilema i pro soudy v případě zločinců na základě mnoha důkazů.
Jestliže je to tak zásadní problém, tak by se to mělo v první řadě řešit v případě lidí jakožto řidičů. Až to bude nějak podchyceno, tak pak má smysl se zabývat robotama.
Ale u řidičů je to podchyceno. Uděláš chybu, zaplatíš. Špatně se rozhodneš, zaplatíš. Ale kdo zaplatí v případě špatně naprogramovaného rozhodnutí auta? A vůbec zde nepíšu jen o financích. V případě robotů jsou jejich součástí bezpečnostní prvky, které nekompromisně zabrání přiblížit se do jejich pracovního prostoru ve chvíli činnosti. Ať mechanicky, nebo SW. Ale to u aut zatím není pořešeno. To auto by se ani nerozjelo. Zatím se spekuluje nad tím, koho bude vhodnější obětovat v případě karambolu. Nikoho. Vraha také nenechají pobíhat s nožem po ulicích a tolerovali mu, že občas, náhodně někoho podřízne. To auto je stejný potenciální vrah a nejde o to jestli se to stane, ale kdy.
Právě že to auto není stejný potenciální vrah.Zkus zodpovědět následující - budeš radši na silnici potkávat řidiče, kteří můžou způsobit nehodu mnohem častěji než robot (řádově), může to být vlivem opilosti, únavy, nedbalosti, riskování, neschopnosti atd., ale bude je možné potrestat, nebo takové, kterých se většina toho netýká, jen je výrazně menší riziko, že mají chybu v programu?Dále je tam ten zásadní rozdíl, že v krizové situaci se většina těch prvních chová zmatečně, ta druhá se do poslední chvíle snaží zmírnit následky střetu.Co si vybereš?
Když bych si měl vybrat, tak raději šanci, že potkám někoho, kdo zazmatkuje, nebo se zachová blbě a třeba zabije sám sebe, oproti naprogramovanému, striktnímu stroji, který podle zadání vybere oběť. Ten stroj by zabil sám sebe jen v případě, že vybraná oběť bude posádka. V tomhle případě ta posádka nemá šanci a v podstatě je odsouzena již v okamžiku nástupu do auta. Do umělé inteligence, skutečné inteligence, je ještě dlouhá cesta a stroje se zachovají tak, jaké jsou instrukce. A ty instrukce jim musí někdo zadat. Ten někdo se tím zadáním pasoval do role soudce udělujícího konečný trest. Strojům spoustu vlastností, které má člověk a použije je podvědomě. Člověk totiž disponuje mimo jiné tvz. intuicí, což je mnohdy chování naprosto nelogické, ale ve výsledku přinese řešení. Tohle stroje zatím neumí. Ty se chovají tak, jak jsou naučené. Netvrdím, že to jednou také nebudou umět, ale zatím jsme od toho dost daleko. I když, upřímně řečeno, mám obavy, že by to mohl být konec lidského pokolení. Ale to hodně předbíhám. Celý problém není jen technický, ale také humánní a řešení je zatím opravdu v budoucnosti.
Takže ty radši náhodnou smrt, i když tě zabije 100x pravděpodobněji?> stroje se zachovají tak, jaké jsou instrukcetakhle strojové učení nefunguje a už vůbec nelze říci, že někdo zadal chování v konkrétní situaci> Člověk totiž disponuje mimo jiné tvz. intuicí, což je mnohdy chování naprosto nelogické, ale ve výsledku přinese řešení. Tohle stroje zatím neumíto už dávno není pravda>Ty se chovají tak, jak jsou naučenétaké není pravda
Slovo "instrukce" je v daném kontextu asi dost nešťastné, ale v principu má vilik pravdu. Stroj založený na AI nebo skoro-AI s ML sice nebude mít tupé detailní a exaktní instrukce ve stylu if-then pro každou situaci, ale i do něj musí někdo nahrát základní model či stupnici hodnot/cen aby ten stroj věděl, co je žádaný/žádoucí výsledek. O tom je odstatně do značné míry tato diskuse, že...Ad inutice - jeden z hlavních problémů je ten, že chování jiného člověka dokáže lidský řidič v určité míře předvídat, protože má základní povědomí o tom, jak by se zachoval on sám (plus takové ty drobnosti typu "aha, ten blb kouká někam úplně jinam, asi mi nedá přednost, musím si dát pozor"). Oproti tomu když uvidím v protisměru nebo z boku přijíždět autonomní vozítko, vím kulové o tom, jak bylo naprogramováno, co se v provozu doučilo apod.
> i do něj musí někdo nahrát základní model či stupnici hodnot/cenNemusí v té podobě jak si to představuje vilik. V zásadě stačí říci, že má za každých okolností minimalizovat zranění a škodu.K druhému odstavci - jsem si jist, že robot bude mnohem předvídatelnější než člověk, bude defenzivní a nebude zmatkovat tak jako lidi.
Ne, nestačí říci jen to, že má minimalizovat škodu a zranění. Tyhle systémy mají dvě základní části: detekci a rozhodování. První krok je naučit systém rozeznávat - tj. dodat mu nějaký dosti rozsáhlý model, na jehož základě bude schopen rozeznávat různé předměty a situace.Druhý krok je rozhodování o prováděných akcích - i tady je potřeba systému dodat model, tentokrát model, který různým situacím/výsledkům přiřazuje nějakou cenu. Při rozhodování se pak počítá primárně s % jistoty rozeznání a přiřazenou hodnotou/cenou. Systém může oba modely průběžně zlepšovat - vidí nějaký flek, neví co to je, přijede blíž, rozená popelnici -> když se to stane hodněkrát, bude schopen popelnici rozeznat na větší vzdálenost, z jiného úhlu, s větší jistotou whatever. Podobně vidí něco, co je na 10 % kočárek a na 90 % popelnice -> přiřadí tomu váhu někde mezi. Jenže v téhle situaci už naráží na tu stupnici hodnot, kterou mu někdo na začátku dal. 10 % x 1000 bodů kočárek > 90 % x 100 bodů za popelnici -> sejme popelnici. Nebo taky ne, pokud je popelnice oceněna 150 body... Ano, vstupuje tam x dalších faktorů, je to strašně sofistikované a inteligentní, ale ani všechny buzzwords a ppt soubory nezakryjí fakt, že nějaký žebříček hodnot tam je potřeba a že jeho nastavení je pro chování systému zásadní.Ad předvídatelnost - souhlasím, že robot nebude tak zmatkovat, bude jezdit bezpečněji. Ale to je právě ten problém - člověk se snáze vcítí do rozhodování jiného člověka, byť objektivně měřeno více chybujícího.
Když se nad tím lépe zamyslíš, tak zjistíš, že taková hodnotová stupnice je v praxi naprosto k ničemu. Buď to má nad vozem kontrolu a pak nenarazí. Anebo nemá kontrolu (velmi nepravděpodobné) a pak je tak vzácná situace kde si může v rámci této situace vybrat (ještě více nepravděpodobné), že to prostě nemá smysl řešit.> člověk se snáze vcítí do rozhodování jiného člověka, ... více chybujícíhoZa tímto tvrzením si opravdu stojíš? Chceš si to zkusit v reálu? Když dám příklad - řidič, který ví, že má odbočit na třetí odbočce a řidič, který hledá. Ty dovedeš lépe předvídat chování toho druhého?
Ale tak to přece nestojí - řidič (ať už člověk nebo robot) může mít nad autem 100% kontrolu a pak mu tam někdo blbě vjede, najede na kus skla a prorazí pneumatiku... Neexistují pouze stavy „mám kontrolu“ a „nemám kontrolu“. V určitých situacích je i během ztráty kontroly možno provádět korektivní manévry (namátkou přetáčivý smyk). V takové situaci je potřeba dopočítat následky možných akcí pak jim (na základně toho „žebříčku hodnot“) přiřadit hodnotu/skóre a následně jednu z možností vybrat.Ad předvídání: opět bych to postavil trochu jinak. Můj odhad u lidského řidiče nebude nezbytně přesnější, bude ale pravděpodobněji „on the safe side“. Například to, že někdo si není jistý a hledá, budu ve značném počtu případů schopen ze stylu jízdy po nějaké chvíli odhadnout poměrně dobře, byť samozřejmě ne na 100 %.
Tou kontrolou myslím, že zastaví bez nehody. Ztráta kontroly pak znamená, že k nehodě určitě dojde, pak si jsem jist, že situace rozhodování mezi kočárkem a kandelábrem je tak komplexní a přitom vzácná, že to nemá smysl řešit.> budu ve značném počtu případů schopen ze stylu jízdy po nějaké chvíli odhadnout poměrně dobřeA bude to lepší, než odhadování robota, který prostě zabliká, zpomalí a odbočí?
Ty situace nejsou vůbec vzácné. Už třeba jen střety se zvěří, nebo nehody při snaze o zabránění takovým střetům...Byl jsem třeba u nehody, kdy řidička zpanikařila, v ca 90 km/hod se pokoušela vyhnout náhle se objevivšímu ježkovi a skončila ve škarpě na střeše. Většina zkušenějších řidičů by nejspíš maximálně brzdila, ale neměnila by směr jízdy. Autonomní auto by si spočítalo, že pokud bude jen brzdit, tak s pravděpodobností 60 % přejede ježka a pokud udělá úhybný manévr, tak s pravděpodobností třeba 20 % skončí na střeše. A pak záleží na nastavení těch hodnot, čemu by dalo přednost. U ježka to asi bude jednoznačné, ale co když to bude metrákové prase? Je lepší riskovat 60% šanci na těžké poškození auta střetem, nebo 20% riziko převrhnutí? Co když to nebude prase čtyřnohé, ale nějaký špatně viditelný ožrala?Co jsem ochoten autonomním systému přiznat je větší preciznost při provádění manévrů, takže to riziko převrhnutí v identické situaci by u lidského řidiče bylo třeba 40 %. Nicméně na principu to nic nemění. Autonomní systém musí provést volbu a k tomu potřebuje informace o „cennosti“ jednotlivých alternativ.U odhadu těžko říct - pokud se všechna autonomní auta budou chovat podle nějakého dostatečně čitelného, případně veřejně dostupného standardního mustru (např. míra zrychlování a zpomalování, prodlevy mezi blikáním a bržděním atd.) pak si dovedu představit, že by i pro lidského řidiče byla čitelnější.
Ten systém velmi dobře ví, jaké jsou limity a prostě udělá takový manévr, aby na střeše neskončil. Takže celá ta úvaha nedává smysl.A ty spekulace o tom jestli je předvídatelnější robot nebo zmatený řidič jsou už úplně absurdní.
Základní kinematika platí i pro sebeinteligentnější systém. Ano, rychlejší reakce a preciznější provádění manévrů umožní robotovi vyřešit i některé situace, které by běžný řidič nezvládl, ale rozhodně ne všechny. Jen (hlášených) střetů se zvěří je cca 12.000 ročně, střetů chodců s automobily ca 5.000 (z toho ca 1.000 zaviněno chodci - a to už musí být echt jasné případy, aby to PČR nehodila na řidiče). Takže situací, kdy se autonomní vozidlo bude muset rozhodovat mezi dvěma špatnými možnostmi, bude pořád dost a dost.
To že dané situace nezvládá člověk nic neříká o tom, jak to zvládne robot. Předpokládám, že třeba střety s chodci zcela vymizí, protože zde je schopnost detekce a rychlosti (adekvátní) reakce úplně někde jinde než v případě řidiče.
"Předpokládám, že třeba střety s chodci zcela vymizí, ....."To bude jen dobře, ale k tomu je ještě dlouhá cesta. 😉
Řešíš nesmysly. Především se SW bude chovat tak, aby k takovému ohrožení vůbec nedošlo. Pokud už dojde, bude to např. nehodou ve stylu, že se ze strany přiřítí jiné auto a odhodí autonomní auto na zastávku s lidmi. Kousek od sebe bude stát babička, kočárek s nemluvnětem a feťák. Myslíš si, že si bude moct SW v tu chvíli vybrat? S největší pravděpodobností s tím už nepůjde udělat nic. SW se samozřejmě bude snažit vyhnout všem (zatáčet mimo co to dá a brzdy na plno) a rozhodně nebude vypočítávat koho je menší škoda. I kdyby byla varianta obětovat "šoféra", aby byly menší oběti na životech, stejně se bude SW snažit vyhnout všem a zároveň nenabourat,i když třeba pak zařvou všichni. Pořád je možnost, že neodhadl brzdnou vzdálenost a přežijí všichni. Žádné priority podle společenské hodnoty nikdo nikdy programovat nebude.
"Žádné priority podle společenské hodnoty nikdo nikdy programovat nebude."Ale to se již dnes řeší. 🙂
Právě to řeší jen pisálci v novinách a diskutéři jako ty. Je to od začátku nesmysl. Nikdo soudný do programu nikdy nenapíše feťák < důchodce < dítě. Navíc když k tomu není žádný logický důvod. Autonomní auto prostě musí zachránit všechny, tečka. Že to v některých případech nebude možné je už jedno. Musí se o to alespoň pokusit.Stejně jako se všude psalo jak je hrozný problém kdo bude za nehody odpovědný. Proč by měl být někdo odpovědný? Prostě nehoda, škody zaplatí pojišťovna. Odpovědnost někoho by přišla na pořad dne jedině, kdyby se např zjistilo, že nehoda byla způsobena problémem, o kterém vývojáři věděli a nesnažili se ho opravit.
https://www.zive.cz/clanky/moral-machine-uz-v...
Kdo to řeší?
byciklu? :)
Potvrďte prosím přezdívku, kterou jsme náhodně vygenerovali, nebo si zvolte jinou. Zajistí, že váš profil bude unikátní.
Tato přezdívka je už obsazená, zvolte prosím jinou.