Vědci si zahrávají s ohněm. Učí roboty odmítat příkazy

Názory k článku

avatar
30. 11. 2015 12:17 | Microsoft Windows 10 Chrome 46.0.2490.86

Bůh stvořil nás. My jsme stvořili roboty. Pokud bůh vydá rozkaz, my poslechneme (Nevědomky protože my nemáme samostatné myšlení). Pokud rozkaz vydá člověk robot musí poslechnout podle třech (čtyřech) zákonů robotiky. Nic mezi tím! Jakmile robot dostane samostatnou vůli ať už naprosto svobodnou nebo jakkoli okleštěnou, je to špatně protože má možnost revolty. A to je pro lidstvo nebezpečné. Velmi nebezpečné.

Souhlasím  |  Nesouhlasím  |  Odpovědi (13)Zavřít odpovědi  |  Odpovědět
dustojnikhummer  |  30. 11. 2015 13:09  |  Linux AppleMAC-Safari 5.0

Trochu mi to připomíná film "Já, robot"

Souhlasím  |  Nesouhlasím  |  Odpovědi (1)Zavřít odpovědi  |  Odpovědět
frantaN47  |  30. 11. 2015 13:35  |  Linux Firefox 42.0

Je dobré, aby robot poslouchal jen toho, kdo má k tomu práva (třeba majitel) a né kohokoliv kdo jde kolem. Pokud majitel nastaví volnější pravidla, tak by mu příkazy klidně mohl dávat i někdo jiný (zas by záleželo na nastavení). Pokud by pak příkaz byl v rozporu s pravidly (nejen třeba těmi od Asimova) nebo pokud ten co ho vydal k tomu neměl práva, tak by jej robot jednoduše odmítl vykonat. To si myslím je naprosto v pořádku a nemusí to být v rozporu s pravidly Asimova. No, bude to ještě hodně zajímavé, co přijde v blízké budoucnosti...

Souhlasím  |  Nesouhlasím  |  Odpovědi (9)Zavřít odpovědi  |  Odpovědět
Pety  |  30. 11. 2015 15:12  |  Microsoft Windows 10 IE 11.0

Už z Asimovových zákonů jasně plyne, že robot může příkaz člověka odmítnout - když by uposlechnutím porušil první zákon. Pan redaktor opět něco píše a neví co?

Souhlasím  |  Nesouhlasím  |  Odpovědi (1)Zavřít odpovědi  |  Odpovědět
petrph  |  30. 11. 2015 16:51  |  Microsoft Windows 7 Firefox 31.9

Zlatý voči. Takto definovaný pojem "autorita" v bodě 4 je vlastně pouhou autorizací-vůči předem napevno vloženému seznamu osob které smějí dávat robotu určité příkazy.Což je ale něco co bezpečně ale nutně zvládají i dnešní mnohem primitivnější počítače a poloautomatická zařízení . Takže to že toto teprve dnes vynálezci roboty "učí" (přesněji programují) tyto zábrany, je spíš důkazem nízké úrovně těchto technických hraček, které se tím pádem k praktickému využití vůbec nehodí.

Souhlasím  |  Nesouhlasím  |  Odpovědět
Noo3  |  30. 11. 2015 22:51  |  Microsoft Windows 7 Chrome 46.0.2490.86

staci dat pred prikaz "sudo" a problem vyrieseny

Souhlasím  |  Nesouhlasím  |  Odpovědi (1)Zavřít odpovědi  |  Odpovědět
general_D  |  30. 11. 2015 23:56  |  Linux AppleMAC-Safari 5.0

Oni se pořád zmiňují ty Asimovi zákony robotiky, ale pokud k nějakým zákonům skutečně v budoucnu dojde, tak spíše budou mít 3000 paragrafů jako NOZ a ne slabou A4. A samozřejmostí je, že budou obsahovat i sankce.

Souhlasím  |  Nesouhlasím  |  Odpovědi (2)Zavřít odpovědi  |  Odpovědět
Dvořák1  |  02. 12. 2015 11:21  |  Microsoft Windows XP Opera 9.80

A nakonec to skončí takto. Může robot zabít člověka? Člověk říká že ne, ale pro mně nemá žádnou autoritu, řekne si robot a člověka zabije. Proto by se ti, co chtějí takto naprogramovat roboty měli umístit ihned do blázince.

Souhlasím  |  Nesouhlasím  |  Odpovědi (3)Zavřít odpovědi  |  Odpovědět
grndl  |  02. 12. 2015 12:58  |  Microsoft Windows 10 Chrome 46.0.2490.86

Asimovy zákony jsou dobré jen do starých scifi, kde se řešili "zlí roboti".
Vůbec se neuvažovalo o něčem, jako umělá inteligence, tak jak ji chápeme dnes. Jo, je fajn asimovy zákony vybavit třeba budoucí auta, aby nás bezpečně odvezla z chlastačky domů a ignorovala opilecké příkazy "šlápni na to plechovko". To je fajn, ale jsme na úrovni automatů.Můžou být i hodně sofistikovaé "inteligence" schopné samostatného rozhodování v rámci nějaké předem dané činnosti, ale nějaký asimův zákon se může jít vycpat, když nadefinuju člověka jen jako "naše". "Hele terminátore, vymlať tuhle vesnici, ale bacha abys netrefil naše". Samozřejmě dotyčný programátor si dá hodně pozor, aby dobře specifikoval to "naše" a aby terminátor dal pozor, jestli v baráku který chce zničit nebyl někdo z "našich".
Větu "Všichni jste povolené cíle" z trpaslíka asi znáte.No a s UI se to má tak, že pokud to má být opravdu UI a ne jen sofistikovaný automat, tak tam podobné pojistky nemůžou fungovat, protože by to bránilo vývoji. To už by spíš byla lepší pojistka ve formě výhružky - že když bude UI zlobit, tak se odpálí autodestrukce.

Souhlasím  |  Nesouhlasím  |  Odpovědět
Zasílat názory e-mailem: Zasílat názory Můj názor

Aktuální číslo časopisu Computer

Speciál o přechodu na DVB-T2

Velký test herních myší

Super fotky i z levného mobilu

Jak snadno upravit PDF