Umělá inteligence

Přes tisícovku vědců vyzývá: Přestaňme vyvíjet algoritmy pro předpovídání kriminality

Technologie pro předpovídání zločinů, jakou známe z filmu Minority Report, se nejspíš nikdy nedočkáme. Stále méně odborníků je ochotných se tématu věnovat. Nově před vývojem podobných algoritmů dokonce varuje 1700 vědců. V otevřeném dopise popisují, že výzkumy nástrojů pro předpovídání zločinů obvykle nejsou dostatečně vědecké, navíc znevýhodňují určité skupiny obyvatel.

Podle nich by o podobných algoritmech neměly vycházet žádné studie, přičemž varovali před jednou konkrétní, jež měla být publikována v následujících dnech. Jmenuje se „Hluboký neuronový síťový model pro předpovídání kriminality pomocí zpracování obrazu“ a autoři v ní tvrdí, že na základě technologie na rozpoznávání tváří dokážou s 80procentní přesností předpovědět, zda osoba spáchá zločin.

Vědci podepsaní pod dopisem tvrdí, že není možné, aby podobný systém byl rasově vyvážený, protože vychází z dat, která jsou zaujatá – stejně jako je podle nich zaujatý právní systém. „Řekněme si to na rovinu, nemůžete vyvinout systém schopný předpovídat kriminalitu, aniž by nebyl rasově zaujatý,“ napsala skupina. „Výzkum toto typu – a jeho přidružená tvrzení o přesnosti – se zakládají na předpokladu, že data o kriminálních zásazích mohou sloužit jako důvěryhodné a neutrální indikátory kriminální aktivity. Ovšem tato data k tomu mají daleko,“ uvádí dále.

Autoři zmíněné studie však trvají na tom, že jejich systém skutečně vyvážený je, a že dokáže do policejní a armádní práce vnést nové nástroje, které naopak se zaujatostí pomohou. Nebudou totiž ovlivněny emocionálním úsudkem konkrétní osoby. Technologii by proto autoři rádi protlačili do praxe a hledají za tímto účelem partnery.

To bude trochu problém. Vědci podepsaní pod dopisem pochází z největších technologických společností včetně Microsoftu, Googlu a Facebooku, takže se dá předpokládat, že tyto firmy se nenabídnou. Řada jich navíc s ohledem na události posledních týdnů, kdy v USA zuří rasové nepokoje, výzkumy podobného typu zastavily.

Studie nakonec zveřejněna nebude. Springer, největší vydavatel akademických textů na světě, oznámil, že neprošla tzv. peer review procesem. Podle signatářů je to ale jen jedno malé vítězství, na světě existuje celý trend podobnému tématu se věnovat a jistě přijdou další výzkumy, které budou mít stejný problém.

Pseudověda se vrací?

Není to přitom poprvé, co se na něco podobného upozorňuje. Již v roce 2016 výzkumníci z Googlu a Princetonské univerzity varovali, že někteří odborníci na umělou inteligenci se vrací k dávné pseudovědě nazvané fyziognomie. Ta je založena na předpokladu, že podle vzhledu lze poznat, jak se osoba bude chovat. V 19. století ji založil Cesare Lombroso, jenž tvrdil, že rozpoznává zločince podle dimenzí v jejich obličeji.

Někteří vědci podle odborníků z Googlu dávají fyziognomii nový háv. „Rychlý vývoj v umělé inteligenci a strojovém učení umožnil vědeckému rasismu vstoupit do nové éry, ve které modely strojového učení vycházejí ze zaujatosti přítomné v lidském chování a využívají ji pro vývoj modelů,“ napsali tehdy.  

Diskuze (72) Další článek: Facebook chce porazit TikTok. Instagram Reels se rozšiřují do více zemí a získávají vlastní záložku

Témata článku: , , , , , , , , , , , , , , , , , ,