Igy-CZ
20. 9. 2024 • 18:58

Nebylo by řešením, kdyby digitální kamery (foťáky v mobilech apod.) měly v sobě čip, který byl schopen snímky při pořízení podepsat certifikátem, který by vydával výrobce a kořenová certifikační autorita by byla centrálně zřízená jen za tímto účelem? AI ani tvůrci deepfake by k takovým certifikátům neměli přístup. Korektně podepsané snímky by bylo možné považovat za důvěryhodné.

frantaN47
20. 9. 2024 • 11:51

Pokud ty vzory pixelů půjdou detekovat, tak půjdou pomocí AI i přemalovat tak, aby z obrázku zmizely a detektor zase nic nepozná. Pokud bude nějaký identifikátor zakódovaný do obrázku jinak než pomocí pixelů, pak není nic jednoduššího, než si obrázek vyfotit (printscreen) a uložit bez přidaných dat. Prostě jakékoliv nápady identifikace budou brzo znehodnoceny a ty obrázky nikdo nerozezná - což v konečném důsledku povede k tomu, že lidi přestanou věřit jakýmkoliv zprávám, jelikož vše může být podvrh. Nebo naopak skočí úplně na vše a povede to ke konci civilizace.

Názor byl 1× upraven, naposled 20. 9. 2024 11:52

zelenymungo
19. 9. 2024 • 9:06

Nezbývá tedy než doufat, že lidstvo má natolik rozvinuté morální cítění, že AI pro šíření nepravd a konspirací nepoužije 😀😀😀

David V.
19. 9. 2024 • 8:13

Možná by pomohlo (tím neříkám, že by podvody byly zcela odstraněny), kdyby sociální sítě a servery, které provozují diskuze (a chtěly by být důvěryhodné) začaly trvat na nepopiratelné identitě uživatelů (mojeID, bankovní identita, NIA, ověřený komerční certifikát, ...). Při zneužívání situace by konkrétní uživatel dostal ban (zpočátku dočasný, pokud by si nedal říct, tak trvalý). Třeba by to pomohlo diskuze vyčistit od trolů a botů, kteří už dnes otravují fakt všude.

Petr Skalica
Petr Skalica
18. 9. 2024 • 20:54

"A tak nám nezbývá nic jiného, než doufat hlavně v to, že fotorealisticky věrně generované obrázky zítřka identifikuje nějaká další AI provozovatele platformy."I kdybych měl brát vážně představu, že někdo dokáže sestrojit magický švýcarák, který spolehlivě identifikuje produkty všech dnešních otevřených modelů (už tohle je prakticky neproveditelné vzhledem k množství modelů se zcela odlišnou architekturou), zítra bude mít komunita připravený upravený checkpoint, který už to nerozpozná. Tohle je zcela naivně utopistická myšlenka."Řešení", které by zachovalo internet v podobě, jakou dnes známe, nebude nikdy existovat. Řešením je se adaptovat jako uživatelé, přijmout, že cokoliv co na internetu vidím, jakkoliv působivé, věrohodné, dokonalé, může snadno být fejk vytvořený 12letým dítětem jedním kliknutím.
Jsme v nové éře, nenamlouvejte si nic jiného a nesnažte se k ní přistupovat stejným způsobem jako v minulosti, uškodíte tím jen sami sobě.A mimochodem, s obrázky to je konečná už teď (spíš bych řekl "včera"), ale počítejte s tím, že videa budou brzy následovat.
https://www.reddit.com/r/CursedAI/comments/1fdxs... Rozdíl mezi otevřenými a uzavřenými modely (jako linknuté video) je u image-to-video mnohem drastičtější, takže moderovat a cenzurovat výstupy bude ještě nějakou dobu možné, ale opět, jen otázka času.edit:
Ještě přidám pár odkazů, pokud někdo pochybuje o věrnosti toho, co dnešní otevřené text-to-image modely umí.
Stable diffusion samotný momentálně komunita v podstatě ignoruje po jarním debaklu s overhyped SD3medium (cenzura a z toho pramenící špatná anatomie).
Co udělalo v poslední době největší zemětřesení je model Flux.
https://www.reddit.com/r/StableDiffusion/comment...
https://www.reddit.com/r/StableDiffusion/comment...
https://www.reddit.com/r/StableDiffusion/comment... (stable diffusion subreddit se věnuje všem otevřeným modelům)

Názor byl 1× upraven, naposled 18. 9. 2024 21:07

Určitě si přečtěte

Články odjinud