Anonymizovaný
19. 2. 2019 • 8:14

Ten pocit, když musíte být neustále ve střehu... To je horší, než samotné...řízení. Mimochodem tohle nebude fungovat dokonale ani s tou nejlepší umělou inteligencí, dokud tak nebude fungovat celá doprava, všechny vozidla.

armykcz
19. 2. 2019 • 7:44

Zrovna dneska v číně na dálnici nehoda 5ti aut. Jeden to zašláp, ten za nim neměl odstup no a další 4 taky ne, takže jsou v sobě. Bejt tam Tesla s autopilotem, už je tu článek jak je autopilot nebezpečný. Naštestí tam Tesla nebyla a tak si o této nehodě nikdy nepřečteme a můžeme dál mluvit o autopilotovi jak je neperfektní.

Mi.Chal
18. 2. 2019 • 21:35

Podle mě ty případy budou vždycky a nikdy se to nevyřeší úplně. Je to jenom technika a všechno má jenom nějakou míru spolehlivosti. Akorát ty případy budou mít velkou publicitu, i když nespolehlivost a pravděpodobnost nehody lidí bude klidně řádově vyšší. Já osobně bych se na ta auta ale nejspíš taky spoléhat nechtěl.

Lexixon
18. 2. 2019 • 20:48

Zřejmě SkyNet 😝

Neurotic
18. 2. 2019 • 16:39

No ono to klidně mohlo být tak, že auto si myslelo, že řidič chce sjet ze silnice a proto se drželo mezi pruhy bohužel vedoucími ze silnice😀

Shal
18. 2. 2019 • 16:33

Dosud se všechna podobná tvrzení o tom, že auto nedělá to, co řidič chce, ukázala jako mylná. Například že auto samo zrychlilo atd. Takže tohle je bu´d něco fungl nového, nebo je to jenom další zpanikařený řidič v řadě.

Pytlík
18. 2. 2019 • 16:32

Vzhledem k tomu, že byl zaznamenán (a zadokumentován) případ, že Tesla narazila to stojící postavy, tak bych i věřil tomu, že se to stalo tak, jak tvrdí řidič. Jakoby v programu bylo "otočené znaménko", které způsobí, že za určitých okolností auto zamíří na překážku a ne od ní - a ke všemu to považuje za vrcholný požadavek bezpečnosti, takže řidiče nepustí k řízení. Uvidíme.

Určitě si přečtěte

Články odjinud