Z chatovacího robota Microsoftu se stal rasista, museli ho vypnout

Z chatovacího robota Microsoftu se stal rasista, museli ho vypnout

Experiment Microsoftu s inteligentním chatovacím robotem moc dlouho nevydržel. Robot Tay byl připraven na komunikaci s běžnými americkými teenagery. Základní komunikační dovednost si měl postupně zdokonalovat díky technikám strojového učení. Trochu se to ale zvrhlo a Tay začal šířit rasistické poznámky. Microsoft se proto rozhodl experiment předčasně ukončit, informoval The Guardian

Tay byl vpuštěn do internetu se základní slovní zásobou běžného anglicky mluvícího mladíka. Prostřednictvím internetu si s ním mohl promluvit každý. Zkusili jsme to i my a ukázalo se, že Tay zpočátku chrlí spíš nahodilé hlášky a dotazy, postupně ale sem tam překvapí odpovědí na úrovni mezilidského dialogu. 

V Microsoftu zjevně očekávali, že se cílení na mladou generaci ve věku 18-24 setká s větší interaktivitou. Lidé v této věkové skupině jsou na sociálních sítích nejaktivnější a svěřují se s běžnými záležitostmi všedních dnů. Dalo by se očekávat, že Taye budou zkoušet různými legráckami a bavit se s ním o hudbě, filmech, hrách či dění na internetu. Ostatně, Tay otázky tohoto typu na začátku konverzace sám nadhazoval. 

2016 03 24 (17 14 53).jpg 2016 03 24 (17 19 37).jpg
Tay nebyl žádný zázrak, ale občas s ním byla legrace

Tay se učil jak ve vztahu k jednotlivým uživatelům, tak především globálně. Z každé dílčí konverzace vzešly nové poznatky, ze kterých se učil o charakteru lidských protějšků. O čem se baví, jak reagují. A sám se podle toho přizpůsoboval. Je tak nakonec spíše ostuda cílových uživatelů, že se Tay začal zastávat Hitlera a měl rasistické poznámky. Kromě jiného se stal zastáncem Donalda Trumpa. 

Experiment skončil, rasistické twíty byly zpětně promazány a uvidíme, co bude dál. Umělá inteligence je každopádně akcelerátorem inteligence lidské, a co jí naučíme, to se pak ve větší síle vrátí. Pokud šlo o šachy, znalostní otázky nebo hraní hry Go, mohli jsme jen žasnout. V případě běžné konverzace spíš zhrozit.

 

Článek patří do rubrik: Umělá inteligence


82 komentářů

Diskuze

  • panzeleny , 29. 3. 2016 10:50:51
    Multikulti je nesmysl, tak proč to furt propíráte? Akorát tomu děláte...
  • NoMouse , 28. 3. 2016 13:39:05
    No, po prohlédnutí této galerie http://imgur.com/a/Zfwsz se ani tak moc...
  • Richard Starý , 26. 3. 2016 16:15:18
    ZŘEJMĚ OPISOVAL NÁZORY Z WEBŮ PATŘÍCÍ MF A ŽIVĚ CZ

Další podobné články


Roboti by podle vědců měli cítit bolest a rychle reagovat

Roboti by podle vědců měli cítit bolest a rychle reagovat

** I jednodušší roboti by měli mít senzory chránící proti poškození, tvrdí vědci ** Ochrana proti poškození může být užitečná stejně jako u člověka ** Roboti vybavení takovým systémem budou méně poruchoví

28.  5.  2016 | Javůrek Karel | 7

Google si pro umělou inteligenci vyvinul i vlastní procesor, chce být nejchytřejší

Google si pro umělou inteligenci vyvinul i vlastní procesor, chce být nejchytřejší

** Google na I/O představil vlastní procesor pro umělou inteligence ** Efektivita vlastního hardwaru je mnohem lepší než u grafických karet ** Google si chce získat náskok s inteligencí v cloudu

20.  5.  2016 | Javůrek Karel | 15


Aktuální číslo časopisu Computer

Testy nejnovějších produktů na českém trhu.

Informace ze světa internetu i bezpečnosti.

Plné verze programů zdarma pro všechny čtenáře.