Facebook | Sociální sítě

Jak pracují moderátoři Facebooku: o závadnosti obsahu rozhodují během sekund

  • Pro Facebook pracuje asi 4 500 moderátorů, kteří posuzují závadnost obsahu
  • K dispozici mají několika set stránkové manuály pro každou kategorii obsahu
  • Nahota na Facebooku je za určitých podmínek povolena

Pro Facebook pracuje asi 4 500 moderátorů, kteří mají za úkol posuzovat závadnost nahlášeného obsahu. Mnohdy mají pouze deset sekund na to, aby rozhodli, zda fotky, videa, komentáře nebo živé přenosy porušují pravidla Facebooku a mají být odstraněny.

Podrobnou zprávu o tom, jak moderátoři největší sociální sítě pracují, přinesl The Guardian, který zveřejnil sérii článků s názvem Facebook Files. Jeho redaktoři údajně získali interní dokumenty, příručky a manuály, které moderátorům přesně určují, jak mají nahlášený obsah posuzovat.

Kontrola fotek i účtů

Většina z moderátorů, kteří pro Facebook pracují nejsou zaměstnáni samotnou společností - pracují pro agentury, které tuto činnost Facebooku dodávají. V sídle firmy se nachází pouze menší tým, který se stará o tvorbu interních pravidel a případně posuzuje nejsložitější případy včetně těch, které se dostanou do médií.

Vzhledem k tomu, že je Facebook využíván takřka dvěma miliardami uživatelů, je tlak na moderátory enormní. V počtu čtyř a půl tisíc musí kontrolovat desítky milionů nahlášených příspěvků a vedle toho také účty, které ostatní uživatelé nahlásí jako falešné. Těch je podle Guardianu každý týden zkontrolováno 6,5 milionů.

I z těchto čísel je patrné, že Facebook bude muset počty moderátorů rozšířit. Přesto však bude i nadále platit to, že mezi moderátory bude kvůli tlaku na rychlost práce obrovská fluktuace, s čímž je i podle interních dokumentů spojena zvýšená chybovost posuzování obsahu.

Bleskové rozhodování

Automatické algoritmy Facebooku posuzují většinu obsahu, který je na síť odesílán. Rozpoznávání obrázků či obsahu videa se snaží odhalit nahotu, záběry týrání zvířat nebo drastické fotografie. K moderátorům se dostanou až v případě, kdy je nahlásí samotní uživatelé. V takovém případě přichází na řadu SRT (Single Review Tool) - systém speciálně vybudovaný pro posuzování obsahu.

Každý moderátor má k dispozici několik set stránkový dokument s manuály, vývojovými diagramy a tabulkami, podle nichž se musí při bleskovém posouzení obsahu řídit. Najde zde nejen podmínky, které musí obsah splňovat na vstupu, ale také finální akce ze strany moderátora. Ten může obsah kompletně smazat, nechat jej bez postihu, případně jej označit pro uživatele jako "znepokojující" anebo odeslat uživateli upozornění.

To platí především v případě komentářů, které jsou útočné a například spadají do kategorie vyhrožování. V takovém případě je uživatel upozorněn a v případě dalších porušení je mu potom dočasně zablokován účet.

The Guardian přinesl i krátký test, který vám může práci moderátorů alespoň trochu přiblížit. Najdete v něm několik obrázků, u nichž budete rozhodovat, zda by měly na Facebooku zůstat, či nikoliv.

Porno, týrání i kanibalismus

Manuály a příručky velmi podrobně popisují každou kategorii obsahu, který může být moderátory posuzován. Velkým tématem je samozřejmě nahota - ať už ve formě umělecké, běžného pornoobsahu, ale třeba i zpravodajské nebo v rámci odplaty (tzv. revenge porn).

Facebook vloni změnil interní pravidla, jak nakládat s nahotou především v případě uměleckých děl. Pokud je zobrazena pouze nahota bez samotného sexuálního aktu, měl by být takový obsah ze strany Facebooku schválen. V opačném případě musí být video nebo fotka začerněna, rozostřena nebo rozkostičkována.

Složitější situace ale nastává u specifických žánrů jako je zpravodajství nebo historické fotografie. Tady nesmíme zapomenout na kontroverzní smazání ikonické fotografie z vietnamské války Napalmová dívka. Facebook ji nakonec po tlaku médií odblokoval a v návaznosti na tuto aféru přepracoval některá svoje pravidla. V těch se tak dočteme například i to, že fotografie zobrazující extrémně vyhublé vězně koncentračních táborů bez oděvu, není závadná.

Velmi specificky se potom Facebook staví k obsahu zobrazující týrání dětí či zvířat nebo sebepoškozování. V prvních dvou případech umožňuje takový obsah zveřejnit v případě, že nejde o sadistický nebo oslavný kontext. Pravidla hovoří o tom, že by v rámci povědomí veřejnosti o těchto tématech neměl být obsah odstraňován. Moderátoři tak mají v manuálu určené pouze případné označení takových videí či fotek jako "znepokojující".

Ještě složitější je potom situace v případě sebepoškozování, které může být uživateli přenášeno živě v podobě videa. Facebook v takových případech moderátorům radí přenosy neblokovat s odůvodněním, že by nemělo docházet k cenzurování nebo trestání uživatelů, kteří již trpí. A to platí i v případě sebevražd, jejichž streamování se bohužel na Facebooku rovněž vyskytuje. Pro tyto případy jsou připraveny procesy, kdy moderátor takový obsah předá internímu týmu, který spolupracuje s organizacemi pro přímou pomoc.

Balancování mezi svobodou slova a cenzurou

Nastavení interních pravidel Facebooku si vždy najde obrovské množství odpůrců, kteří budou mazání obsahu považovat za cenzuru a omezování svobody slova. Ostatně u služby s dvoumiliardovou uživatelskou základnou tomu nemůže být jinak.

Z jedné strany jsou tedy slyšet hlasy, že by Facebook neměl cenzurovat žádné příspěvky a na druhé straně, kde najdeme i zástupce z řad evropských politiků, naopak převládá názor, jenž chce Facebook stavět na úroveň běžných masmédií.

To však není možné - ať už z důvodu obřího množství obsahu, jenž na Facebooku vzniká, ale i z důvodu, že Facebook je pouhou platformou pro sdílení obsahu. Nejen Facebook, ale i Youtube nebo Twitter tak nelze zabalit do některé z aktuálních škatulek, jež mají nastavená striktní pravidla. Sociální sítě jsou novým způsobem komunikace a na Facebooku, jako hlavním zástupci kategorie, je vytvoření pravidel pro tuto komunikaci.

Zdroj: The Guardian

Diskuze (23) Další článek: Jak založit e-mail: zdarma nebo raději placený?

Témata článku: , , , , , , , , , , , , , , , , , , , , , , , ,