Umělá inteligence | Tesla Motors | Autonomní vůz

Autopilota Tesly je možné „oblafnout“ projektorem za pár tisíc korun

Před šesti měsíci provedl doktorand Ben Nassi, studující na Ben Gurionově univerzitě v izraelském Negevu, řadu úspěšných útoků na systémy autonomních vozidel. Potřeboval k nim pouze dron vybavený levným projektorem, který promítal obraz na vozovku či na okolní objekty. Své poznatky představil tento týden na konferenci Cybertech Israel v Tel Avivu. O zajímavých experimentech informuje server Ars Technica.

Metoda útoku je prezentována jako jasná ukázka rozdílů mezi schopnostmi umělé a lidské inteligence. Zatímco většina prezentovaných ukázek by člověka téměř jistě nezmátla, Autopilot Tesly doslova „polykal návnady i s navijákem“.

Jak pobláznit Teslu

Nassi vytvořil video, ve kterém nastiňuje možná nebezpečí, jež souhrnně označuje jako „Fantom ADAS“. Na jedné straně je nutné konstatovat, že Tesla reaguje adekvátně k tomu, co její systémy „vidí“. Na straně druhé je Nassova práce důležitá, protože ukazuje potřebu defenzivního návrhu autonomních systémů řízení.

S dronem lze na samořídící auta útočit i bez přítomnosti na místě – náklady jsou přitom směšně nízké, neboť stačí dron s cenou kolem 9 000 Kč a projektor, který stojí okolo 7 000 Kč. Sám Nassi ověřil, že k úspěšnému útoku stačí i projektor s rozlišením 854 × 840 obrazových bodů a světelným tokem 100 lumenů, jehož cena se pohybuje v přepočtu kolem 4 500 Kč.

Ben Nassi hned v úvodu videa konstatuje, že rozdíly mezi inteligencí strojů a lidí řešil už před sedmdesáti lety Alan Turing. Následně ukazuje promítané obrázky chodce a dopravní značky, u kterých je naprosto evidentní, že by je člověk správně reprezentoval jako projekci.

Zmatená Tesla

Autopilot Tesly však využívá k identifikaci objektů umělou inteligenci, která je rozpoznává na základě naučených vzorů. Nedokáže tedy spolehlivě rozeznat skutečnou dopravní značku od její promítané projekce, stejně jako nerozliší člověka od jeho obrazu.

Nassi následně konstatuje, že tuto metodu lze zneužít k útoku na vozidla s pokročilými systémy asistence řidiče. Ta budou na promítané objekty reagovat, jako by byly skutečné – před chodcem zastaví, na základě značky sníží rychlost a tak podobně.

Podstatně zákeřnější je promítání falešného vodorovného dopravního značení. V tomto případě Tesla Model X následovala projektované čáry na vozovce tak, jako by byly skutečné. Bylo by tak snadné navést auto třeba do protisměru, nebo kamkoli jinam.

V rámci objektivity je však závěrem nutné podotknout, že ačkoli je systém autonomního řízení Tesly označován jako Autopilot, ve skutečnosti nenabízí plnou autonomii. Podobné situace by měl tedy řešit řidič, jež by měl být po celou dobu jízdy připraven zasáhnout.

Diskuze (71) Další článek: Kde vzniká CO₂ a proč se tak moc řeší? Snaha o snižování emisí má opodstatnění

Témata článku: , , , , , , , , , , , , , , , , , , , , , , , ,