Často se hovoří o tom, že obrázky generované umělou inteligencí mohou být zneužity k šíření dezinformací. Vlastně je to největší obava, která se s jejich tvorbou pojí. Doteď se diskuze odehrávala spíše v mezích „co kdyby“, ale tento týden jistý obrázek ukázal, že hrozba je velmi reálná a může mít reálné důsledky.
Papež František v zimní bundě, Donald Trump v poutech… všichni jsme viděli tyto slavné obrázky vygenerované AI, které byly dávány za příklad možné hrozby šíření dezinformací. Hodně se o nich hovořilo, ale žádné praktické škody nakonec nenapáchaly – alespoň ne tak velké, že by se to dostalo do titulků světových médií.
Už tyhle obrázky vypadaly velmi realisticky, neukazovaly ale dostatečně skandální materiál, který by bylo možné zneužít. K tomu jsou potřeba jiné emoce, zejména strach. A právě ten vyvolal poměrně realisticky vypadající obrázek výbuchu u Pentagonu, který se objevil v pondělí na Facebooku. Byla k němu připojená zpráva, že u sídla amerického ministerstva obrany došlo k vážném bezpečnostnímu incidentu.
Obrázek se rychle začal šířit, zejména na Twitteru, kde jej začalo sdílet i několik ověřených účtu, ke kterým se posléze přidaly dezinformační účty včetně ruské televize RT (ten je v Evropské unii blokovaný). Na krátký moment vznikla panika, která dokonce vedla k dočasnému poklesu amerického akciového trhu.
Podle agentury Bloomberg je to nejspíš poprvé, co obrázek, do kterého zasahovala AI, dokázal ovlivnit finanční trhy. Jelikož Pentagon zprávu o výbuchu rychle dementoval, akcie se zanedlouho zase vrátily na svou původní hodnotu, ale incident ukazuje, že stačí dobře vymyšlený motiv, pár kliknutí v nástrojích jako je Midjourney a dezinformace s reálným škodícím potenciálem je na světě.
Muskova budoucí robotická žena
Navíc zhruba ve stejnou dobu se na sociálních sítích šířily i další AI obrázky, a to série, na které šéf Tesly Elon Musk líbá robotické ženy. K jednomu z obrázků bylo připojeno prohlášení, že „Musk oznamuje svou budoucí manželku“, kterou mu měla zcela navrhnout AI.
Na těchto obrázcích je už od pohledu jasné, že jsou vygenerované AI, také je u nich známý autor, Pablo Guerrero. Mnoho textů mylně uvádí jméno Daniel Marven, který ale snímky jen sdílel na Twitteru a sepsal k nim text. Později uvedl, že obrázky zveřejnil proto, že chtěl před šířením dezinformací varovat.
Diskuzi se mu skutečně vyvolat podařilo, obrázky měly ohromný dosah… dokonce na to stránka France24 dělala fact checking. Možná i proto, že by nikoho nepřekvapilo, kdyby si Musk robotickou ženu skutečně pořídil.
Umělý obsah dostane vodoznaky
Kvůli příkladům jako jsou tyto Microsoft v úterý oznámil, že všechny obrázky, které jeho aplikace budou generovat, budou časem obsahovat jistou formu vodoznaku, díky kterému bude možné ověřit, odkud obsah pochází. Tento vodoznak bude kryptografický a nebude viditelný na první pohled.
Ke standardu, za kterým stojí skupina C2PA (Coalition for Content Provenance and Authenticity), se zatím kromě Microsoftu přihlásily Adobe, Intel, Arm či nedávno Stability AI.