grndl
grndl
2. 12. 2015 • 12:58

Asimovy zákony jsou dobré jen do starých scifi, kde se řešili "zlí roboti".
Vůbec se neuvažovalo o něčem, jako umělá inteligence, tak jak ji chápeme dnes. Jo, je fajn asimovy zákony vybavit třeba budoucí auta, aby nás bezpečně odvezla z chlastačky domů a ignorovala opilecké příkazy "šlápni na to plechovko". To je fajn, ale jsme na úrovni automatů.Můžou být i hodně sofistikovaé "inteligence" schopné samostatného rozhodování v rámci nějaké předem dané činnosti, ale nějaký asimův zákon se může jít vycpat, když nadefinuju člověka jen jako "naše". "Hele terminátore, vymlať tuhle vesnici, ale bacha abys netrefil naše". Samozřejmě dotyčný programátor si dá hodně pozor, aby dobře specifikoval to "naše" a aby terminátor dal pozor, jestli v baráku který chce zničit nebyl někdo z "našich".
Větu "Všichni jste povolené cíle" z trpaslíka asi znáte.No a s UI se to má tak, že pokud to má být opravdu UI a ne jen sofistikovaný automat, tak tam podobné pojistky nemůžou fungovat, protože by to bránilo vývoji. To už by spíš byla lepší pojistka ve formě výhružky - že když bude UI zlobit, tak se odpálí autodestrukce.

Dvořák1
2. 12. 2015 • 11:21

A nakonec to skončí takto. Může robot zabít člověka? Člověk říká že ne, ale pro mně nemá žádnou autoritu, řekne si robot a člověka zabije. Proto by se ti, co chtějí takto naprogramovat roboty měli umístit ihned do blázince.

general_D
30. 11. 2015 • 23:56

Oni se pořád zmiňují ty Asimovi zákony robotiky, ale pokud k nějakým zákonům skutečně v budoucnu dojde, tak spíše budou mít 3000 paragrafů jako NOZ a ne slabou A4. A samozřejmostí je, že budou obsahovat i sankce.

Noo3
30. 11. 2015 • 22:51

staci dat pred prikaz "sudo" a problem vyrieseny 😀

petrph
30. 11. 2015 • 16:51

Zlatý voči. Takto definovaný pojem "autorita" v bodě 4 je vlastně pouhou autorizací-vůči předem napevno vloženému seznamu osob které smějí dávat robotu určité příkazy.Což je ale něco co bezpečně ale nutně zvládají i dnešní mnohem primitivnější počítače a poloautomatická zařízení . Takže to že toto teprve dnes vynálezci roboty "učí" (přesněji programují) tyto zábrany, je spíš důkazem nízké úrovně těchto technických hraček, které se tím pádem k praktickému využití vůbec nehodí.

Pavel Matějka (Pety)
Pavel Matějka (Pety)
30. 11. 2015 • 15:12

Už z Asimovových zákonů jasně plyne, že robot může příkaz člověka odmítnout - když by uposlechnutím porušil první zákon. Pan redaktor opět něco píše a neví co?

frantaN47
30. 11. 2015 • 13:35

Je dobré, aby robot poslouchal jen toho, kdo má k tomu práva (třeba majitel) a né kohokoliv kdo jde kolem. Pokud majitel nastaví volnější pravidla, tak by mu příkazy klidně mohl dávat i někdo jiný (zas by záleželo na nastavení). Pokud by pak příkaz byl v rozporu s pravidly (nejen třeba těmi od Asimova) nebo pokud ten co ho vydal k tomu neměl práva, tak by jej robot jednoduše odmítl vykonat. To si myslím je naprosto v pořádku a nemusí to být v rozporu s pravidly Asimova. No, bude to ještě hodně zajímavé, co přijde v blízké budoucnosti...

dustojnikhummer
30. 11. 2015 • 13:09

Trochu mi to připomíná film "Já, robot"

Pavel Verner
30. 11. 2015 • 12:17

Bůh stvořil nás. My jsme stvořili roboty. Pokud bůh vydá rozkaz, my poslechneme (Nevědomky protože my nemáme samostatné myšlení). Pokud rozkaz vydá člověk robot musí poslechnout podle třech (čtyřech) zákonů robotiky. Nic mezi tím! Jakmile robot dostane samostatnou vůli ať už naprosto svobodnou nebo jakkoli okleštěnou, je to špatně protože má možnost revolty. A to je pro lidstvo nebezpečné. Velmi nebezpečné.

Určitě si přečtěte

Články odjinud