Obrázky, texty a překlad. OpenAI poprvé přiznává, že jeho nástroje slouží propagandě a šíření dezinformací

Obrázky, texty a překlad. OpenAI poprvé přiznává, že jeho nástroje slouží propagandě a šíření dezinformací

Bylo jen otázkou času, než se to stane. OpenAI oznámilo, že jeho AI nástroje byly zneužity k šíření propagandy, různí státní aktéři jimi generovali propagandistické texty, komentáře či obrázky. OpenAI jejich aktivity zatrhlo, ale přiznává, že odhalovat a zamezovat šíření podobného obsahu je složité. 

OpenAI dosud mluvilo jen o tom, jak chce tvorbě dezinformací pomocí různých opatření zamezovat. V nové podrobné zprávě ale poprvé rozebírá druhou stranu - že jeho nástroje už jsou ke tvorbě dezinformačního obsahu zneužívány a jakým způsobem. 

Firma v posledních třech měsících narušila pět tzv. tajných vlivových kampaní - dvě z Ruska a jednu z Číny, Izraele a Íránu. Jednotlivé kampaně se v detailech lišily, ale v základu všechny používaly modely OpenAI k výrobě příspěvků na sociální sítě, hlavně k překladům textů do jiných jazyků, aby získaly větší dosah. To se jim podle firmy nepovedlo, než se obsah více rozšířil, OpenAI účty smazalo. 

Velkovýroba komentářů a překladů

Veškeré aktivity měly nepřekvapivě silný politický charakter. V první kampani subjekt z Ruska použil modely OpenAI k vytvoření bota na Telegramu, který generoval politické zprávy v ruštině a angličtině zaměřené proti Ukrajině, Moldavsku, Baltským státům a USA. 

Podobně fungovala druhá ruská kampaně, kde byly modely OpenAI zneužity ke generování komentářů v angličtině, francouzštině, němčině, italštině a polštině na sociální síť X a obrázkovou síť 9GAG. Také sloužily k překladům dezinformačních textů a jejich následnému publikování na Facebook. Tato kampaň dostala název Doppelganger a zajímavostí je, že podle Wired šířila nesmysly i o střelbě na slovenského premiéra Roberta Fica. 

Čínská kampaň také využívala modely OpenAI ke generování textů a komentářů na sociální síť X, dále pak na blogovací platformy Medium a Blogspot. Zároveň využila umělou inteligenci ke správně svých databází a stránek. 

Írán využil nástroje OpenAI ke generování a překladu dlouhých rádoby zpravodajských článků, které zveřejňoval na stránce spojené s íránskou propagandou. 

Poslední je Izrael, kde OpenAI zamezilo propagandistickým aktivitám společnosti Stoic. Ta také využívala AI modely ke generování textů a komentářů, jež byly následně zveřejňovány na Instagramu, Facebooku a X. 

Nejslabším článkem lidé 

Tematicky se příspěvky věnovaly zejména válce na Ukrajině, situaci v Gaze, volbám v Indii, politické situaci v Evropě a USA a image čínské vlády. Některé subjekty, které obsah generovaly, už byly úřadům a dalším platformám známé, například aktivity firmy Stoic u sebe zakázala nejdříve Meta. Dva Rusové z jedné z kampaní se zase objevili na americkém sankčním seznamu.

I když žádná z operací podle OpenAI žádnou velkou škodu nenapáchala, firma podotýká, že vyhledávat tento obsah, který se šíří na několika sítích a je součástí organizované snahy, je složité. „Ne vždy víme, jak obsah je obsah generovaný našimi produkty distribuován,” přiznává OpenAI. Vyhledávalo ho pomocí svých vlastních interních AI nástrojů. Také zaznamenalo případy, kdy jeho modely jednoduše odmítly vygenerovat to, co státní aktéři chtěli. 

Nejslabší článek nicméně v těchto operacích podle OpenAI byli lidé - někdy rozhořčeně zamítavou zprávu z modelu zveřejnili na vlastních profilech na sociálních sítích, takže pak vypátrat autory bylo jednoduché.

Určitě si přečtěte

Články odjinud