Asimovy zákony jsou dobré jen do starých scifi, kde se řešili "zlí roboti".Vůbec se neuvažovalo o něčem, jako umělá inteligence, tak jak ji chápeme dnes. Jo, je fajn asimovy zákony vybavit třeba budoucí auta, aby nás bezpečně odvezla z chlastačky domů a ignorovala opilecké příkazy "šlápni na to plechovko". To je fajn, ale jsme na úrovni automatů.Můžou být i hodně sofistikovaé "inteligence" schopné samostatného rozhodování v rámci nějaké předem dané činnosti, ale nějaký asimův zákon se může jít vycpat, když nadefinuju člověka jen jako "naše". "Hele terminátore, vymlať tuhle vesnici, ale bacha abys netrefil naše". Samozřejmě dotyčný programátor si dá hodně pozor, aby dobře specifikoval to "naše" a aby terminátor dal pozor, jestli v baráku který chce zničit nebyl někdo z "našich". Větu "Všichni jste povolené cíle" z trpaslíka asi znáte.No a s UI se to má tak, že pokud to má být opravdu UI a ne jen sofistikovaný automat, tak tam podobné pojistky nemůžou fungovat, protože by to bránilo vývoji. To už by spíš byla lepší pojistka ve formě výhružky - že když bude UI zlobit, tak se odpálí autodestrukce.
A nakonec to skončí takto. Může robot zabít člověka? Člověk říká že ne, ale pro mně nemá žádnou autoritu, řekne si robot a člověka zabije. Proto by se ti, co chtějí takto naprogramovat roboty měli umístit ihned do blázince.
Takových robotů budou mít v armádě plno a dostanou k tomu přímo rozkazy.
Robot udělá, jen co se mu řekne. Sám od sebe neudělá nikdy nic. Ano, může mít jistou operační volnost, ale ta bude stejně celkem pevně definována. Rozhodně to nejde definovat slovy "Neubližuj lidem". Co je to "lidem"? co je "neubližuj?" - to robot neví, a musí se mu to naprogramovat. Stačí aby "lidem" = týpkům v maskáčích a je vymalováno. To samé neubližuj můžu zadefinova jako neprováděj žádnou interakci s lidmi, ale už to nemusí nutně být nestřílej po letadle. Aby robot chápal souvislosti, že v letadle jsou lidi a že by do něj tedy neměl střílet, na to musí mít naprogramovanou informaci, že v letadlech lidi obvykle jsou, nebo to musí být UI, která to bude chápat. A dělat nějaké zákony pro UI je poněkud ošidné, protože UI by je z principu měla umět obejít.
Ono jde taky o to, jestli si představujeme budoucnost s roboty spíše ve stylu Futuramy nebo Terminátora. Skutečnost asi nebude ani jedno.
Oni se pořád zmiňují ty Asimovi zákony robotiky, ale pokud k nějakým zákonům skutečně v budoucnu dojde, tak spíše budou mít 3000 paragrafů jako NOZ a ne slabou A4. A samozřejmostí je, že budou obsahovat i sankce.
Fyzikální zákony ani hardwarové specifikace sankce neobsahují 🙂 .
Fyzikální zákony jsou sankcí samy o sobě. Například skok z letadla bez padáku.A HW specifikace to mají stejně. Překroč je, a máš po HW ;)
staci dat pred prikaz "sudo" a problem vyrieseny 😀
Jenom jestli znáš heslo.
Zlatý voči. Takto definovaný pojem "autorita" v bodě 4 je vlastně pouhou autorizací-vůči předem napevno vloženému seznamu osob které smějí dávat robotu určité příkazy.Což je ale něco co bezpečně ale nutně zvládají i dnešní mnohem primitivnější počítače a poloautomatická zařízení . Takže to že toto teprve dnes vynálezci roboty "učí" (přesněji programují) tyto zábrany, je spíš důkazem nízké úrovně těchto technických hraček, které se tím pádem k praktickému využití vůbec nehodí.
Už z Asimovových zákonů jasně plyne, že robot může příkaz člověka odmítnout - když by uposlechnutím porušil první zákon. Pan redaktor opět něco píše a neví co?
Tak on sám Asimov si vymýšlel výjimky, paradoxy, záhady, jak se tomu vyhnout. Je tu další věc. Řeší se tu vztahy robot-člověk, co vztah robot-zvíře, robot-zvíře-člověk. Kromě toho robot-robot a jsme brzo u boha a definice života, práva na život, vyšší inteligence. Z toho se nedá vymotat.
Je dobré, aby robot poslouchal jen toho, kdo má k tomu práva (třeba majitel) a né kohokoliv kdo jde kolem. Pokud majitel nastaví volnější pravidla, tak by mu příkazy klidně mohl dávat i někdo jiný (zas by záleželo na nastavení). Pokud by pak příkaz byl v rozporu s pravidly (nejen třeba těmi od Asimova) nebo pokud ten co ho vydal k tomu neměl práva, tak by jej robot jednoduše odmítl vykonat. To si myslím je naprosto v pořádku a nemusí to být v rozporu s pravidly Asimova. No, bude to ještě hodně zajímavé, co přijde v blízké budoucnosti...
Otázka zní, co dělat v případě, že majitel zemře/nebude schopen reagovat a ten robot bude zrovna něco dělat?Assimovy zákony navíc mají problém v tom, že AI nemusí poznat, že škodí. Ostatně to mnohdy ani lidi.
Navíc si robot musí uvědomit, co fyzicky zvládne. Tu překážku plastových kostek na stole hravě projde, ale ví to? A pokud je něco na hranici možností (což taky nepozná), pak musí zvážit něco jako riziko. Řekněme (v reálu je to nemožné), že situaci vyhodnotí (správně/nesprávně), že se poškodí. Těžko posoudí, jestli bude opravitelný. Když situace dopadne špatně, vyhodnotí ji jako "zlo" od (daného) člověka a příště neuposlechne? I člověk se mohl jen splést v odhadu a není zlý... Pomůže mu, uposlechne (až ho člověk vyléčí)? Poslechne člověka, který mu někdy konal "dobro" (lékař robotů)?. Prostě, tady je asi milion a jeden filozoficko-lidsko-technický problém. A ještě jedna legrace-nelegrace... robot musí poznat ironii, vtip, sarkasmus.
Názor byl 1× upraven, naposled 30. 11. 2015 15:06
Do toho jsem se nechtěl zamotávat... ale v podstatě jde o to, jestli ty roboty budeme brát jako věc s omezenou inteligencí (pojedou podle programu) nebo stejně jako děti se budou učit všemu, ale mnohem rychleji a možná pak dojdou k tomu, že nás vlastně ani nepotřebují.
tak se bude hledat někdo, kdo mu vyjme z čela šém...
A někdo požádá robota, aby zamíchal sklenky 🙂 (Ne)náhodně 🙂
Názor byl 1× upraven, naposled 30. 11. 2015 15:56
A ještě mě napadá. Je velmi tenká a lehce zneužitelná hranice mezi obrana-útok (právně zcela směšná "přiměřená obrana"). To je ostatně zástěrka většiny válek. Jak se v tom má orientovat chudák domácí robot, který kouká na robota na frontě.
Robot má jasný příkaz vyzvednout sako z čistírny, aby majitel stihnul divadlo. Na ulici ale narazí na autonehodu. Zapojí se, nesplní tedy příkaz a nestihne v časovém limitu zvládnout přímý příkaz. On MUSÍ mít právo neuposlechnout přímý příkaz. A pak řešíme už jen význam (váhu) a menší "zlo". A v tom je zakopaný pes (neříkejte to před robotem 🙂 nebo vás kousne 😀
To záleží na tom, jak by byly nastaveny priority. Co má v daný okamžik větší váhu? Zde si myslím, že by ta nehoda měla mít vyšší prioritu, ale může být v okolí někdo jiný, kdo se postará o poskytnutí pomoci. Robot by mohl kontaktovat(přes nějakou wifi) ostatní roboty poblíž a pokud by jiný neměl zrovna co dělat, tak by to nechal na něm a pokračoval ve vykonávání příkazu ohledně toho divadla. Ale každopádně by to bylo dost složité mu to nějak naprogramovat nebo vysvětlit.
Jako jo, souhlasím, mohl by splnit původní příkaz, kdyby zajistil jinou pomoc. To rozhodování nezvládáme ani my lidi a jestliže bude mít schopnost vyhodnocovat své jednání (asi by měl), pak není daleko k "pocitům" viny, bude muset řešit pojem smrt a sebe sama. A oproti nám bude jediný rozdíl - on bude pracovat s pravděpodobností, zatímco my s intuicí (a obě strany se zkušeností)
Názor byl 1× upraven, naposled 1. 12. 2015 12:52
Trochu mi to připomíná film "Já, robot"
áno. Ale možno sa dopracujeme aj k Battlestar Galactica
Bůh stvořil nás. My jsme stvořili roboty. Pokud bůh vydá rozkaz, my poslechneme (Nevědomky protože my nemáme samostatné myšlení). Pokud rozkaz vydá člověk robot musí poslechnout podle třech (čtyřech) zákonů robotiky. Nic mezi tím! Jakmile robot dostane samostatnou vůli ať už naprosto svobodnou nebo jakkoli okleštěnou, je to špatně protože má možnost revolty. A to je pro lidstvo nebezpečné. Velmi nebezpečné.
Nevím jak tebe, ale mě žádný bůh nestvořil.
Pokud naše stvoření nazvete dílem boha nebo dílem zatím nepochopené statistické fluktuace natěsnané energie, díky které vznikl prostor, čas a hmota... Je to prašť jako uhoď. Prostě energii se z neznámých příčin zachtělo uvažovat sama nad sebou a nějak si k tomu sama poskytla podmínky. 😀
Myslím, že Buh se dneska nechápe "nijak". Je to prostě Bůh a žádná "statistické fluktuace natěsnané energie" 😀😀😀😀
Polož si tedy otázku: Máš právo odporovat rodičům? 😀
Ma. Kazdej ma na to pravo, ale je pravda, ze ne vzdy to skonci uspechem (at uz pro jednu, nebo druhou stranu). Spis zvitezi zakony (a jejich uplatnovani), nebo ten, kdo je silnejsi.
No jo, jenže u nás fungují ještě další věci. Díte si jednou uvědomí, že to rodič nemyslel špatně. Dost možná to u svých dětí aplikuje naprosto stejně v dobrém i zlém. A...Člověk zná taky něco jako odpuštění. Co robot?Člověk se nerodí zlý, to z něj dělá okolí a zkušenost. Může zkušenost z robota dělat zlého? Třikrát mu utrhnete ručičku, má to v něm něco vyvolat? A jak moc silného?Pozná člověk dobro a zlo? Pozná ho robot? Smrt jedince versus smrt skupiny lidí, zachránit jednoho člověka nebo skupinu zvířat? Blbý poměr? Tak dál, jeden člověk versus živočišný druh.. Pozná něco jako dilema...
A jsi si tím opravdu jistý? Nebo si to jen myslíš a chceš tomu věřit?
Ano, jsem si jistý.
Nás? Mě teda ne B-]
Vědecká modlitba : Statistická fluktuace naše nejmocnější, ty která jsi dala vzniknout prostoru, času, hmotě a nám, slituj se nad námi, ó ty všemocná energie která poháníš vesmír!! Bez tebe by se řád světa rozplynul v chaosu zvýšené entropie. 😉
Pokud přijmeme fakt, že existuje nějaká energetická fluktuace nebo bůh, pak se ptám, co stvořilo ji(jeho)? A kdo stvořil to, co stvořilo boha? No a jsme v kolotoči nekonečných otázek, které vedou jen do ordinace Dr. Chocholouška a tak je lepší to neřešit, jelikož to stejně nikdo nevyřeší. Úplně mi stačí, že znám odpověď na otázku "Jaký je smysl života, vesmíru a všeho vůbec?"...tedy 42. 😀
Nikdo normální nevěří, že nemá samostatné myšlení.
A zrovna se už po čtvrté koukám na Battlestar Galacticu, kde díly začínají asi tak nějak...Cylony stvořil člověk, vyvinuli se, vzbouřili se, .........
Potvrďte prosím přezdívku, kterou jsme náhodně vygenerovali, nebo si zvolte jinou. Zajistí, že váš profil bude unikátní.
Tato přezdívka je už obsazená, zvolte prosím jinou.