Studie ukázala, že lidé věří více deepfake tvářím než skutečným lidem
Věda a výzkum
Foto: Shutterstock

Studie ukázala, že lidé věří více deepfake tvářím než skutečným lidem

Jste si jistí, že dokážete rozeznat deepfake od reality? Studie ukazuje, že většina z nás to nedokáže.

15.03.22

Rozšíření technologie deepfake vyvolává obavy, že by umělá inteligence mohla začít deformovat náš smysl pro sdílenou realitu. Nový výzkum naznačuje, že obličeje vytvořené umělou inteligencí nám nejenže nalhávají, že jsou skutečnými lidmi, ale že jim ve skutečnosti věříme více než svým bližním.

V roce 2018 ohromila svět společnost Nvidia umělou inteligencí, která dokázala vytvářet ultrarealistické fotografie neexistujících lidí. Její výzkumníci se opírali o typ algoritmu známý jako generativní adversární síť (GAN), který proti sobě staví dvě neuronové sítě, z nichž jedna se snaží rozpoznat deepfakes a druhá se snaží generovat velmi přesvědčivější podobizny. Pokud má GAN dostatek času, dokáže generovat pozoruhodně dobré padělky.

Od té doby se schopnosti umělé inteligence značně zdokonalily, což s sebou nese znepokojivé důsledky: podvodníci mohou obelhávat lidi, je možné vkládat lidi do pornofilmů bez jejich souhlasu a podkopávat důvěru v online média. Ačkoli je možné využít samotnou umělou inteligenci k odhalování padělků, neúspěchy technologických společností v efektivním usměrňování mnohem méně komplikovaných softwarů naznačují, že to také nemusí znamenat spásu.

To znamená, že relevantnější otázkou je, zda rozdíl dokážou rozpoznat lidé, a hlavně to, jak se k deepfakes staví. Výsledky nové studie v časopise PNAS nejsou vůbec povzbudivé – výzkumníci totiž zjistili, že schopnost lidí odhalit podvrhy není lepší než náhodný odhad, dokonce často hodnotili vymyšlené tváře jako důvěryhodnější než ty skutečné.

"Naše hodnocení fotorealismu obličejů vytvořených umělou inteligencí naznačuje, že syntetické mechanismy prošly tísnivým údolím a jsou schopny vytvářet obličeje, které jsou k nerozeznání – a jsou důvěryhodnější než obličeje skutečné," napsali autoři.

K testování reakcí na deepfakes použili výzkumníci aktualizovanou verzi GAN společnosti Nvidia, která vytvořila 400 obličejů s rovnoměrným rozdělením podle pohlaví a po 100 obličejích ze čtyř etnických skupin: černochů, bělochů, východoasijců a jihoasijců. Každou z nich vědci spárovali se skutečnými tvářemi vybranými z databáze, které byly původně použity k tréninku GAN a které byly jinou neuronovou sítí vyhodnoceny jako podobné těm falešným.

Poté vybrali 315 účastníků z crowdsourcingové platformy Amazon Mechanical Turk. Každý z nich měl posoudit 128 obličejů z kombinované sady dat a rozhodnout, zda se jedná o falešný obličej, nebo ne. Dosáhli přesnosti pouhých 48 %, což je ve skutečnosti horší než 50 %, které byste měli získat z náhodného odhadu.

Deepfakes mají často charakteristické vady a nedostatky, které mohou lidem pomoci je odlišit. Výzkumníci proto provedli druhý experiment s dalšími 219 účastníky, kterým poskytli základní školení o tom, na co si mají dávat pozor a pak je nechali posoudit stejný počet tváří. Jejich výkon se ale zlepšil jen nepatrně, a to na 59 %.

V posledním experimentu se tým rozhodl zjistit, zda bezprostřednější instinktivní reakce na tváře mohou lidem poskytnout lepší vodítka. Rozhodli se zjistit, zda důvěryhodnost – což je něco, o čem se obvykle rozhodujeme ve zlomku sekundy na základě těžko odhadnutelných znaků – může lidem pomoci k lepšímu rozhodování. Když však nechali dalších 223 účastníků hodnotit důvěryhodnost 128 obličejů, zjistili, že lidem ve skutečnosti přišly falešné tváře o 8 % důvěryhodnější, což je malý, ale statisticky významný rozdíl.

Vzhledem k nekalým účelům, k nimž mohou být deepfakes využívány, je to znepokojivé zjištění. Výzkumníci se domnívají, že důvodem vyššího hodnocení falešných tváří je částečně to, že mají tendenci vypadat více jako průměrné tváře, kterým podle předchozích výzkumů lidé více důvěřují. To se potvrdilo při zkoumání čtyř nejdůvěryhodnějších pravých tváří a tří nejdůvěryhodnějších deepfake tváří.

Výzkumníci upozorňují, že jejich zjištění naznačují, že ti, kdo stojí za základní technologií pro deepfakes, by se měli dobře zamyslet nad tím, co dělají. Důležitým prvním krokem je položit si otázku, zda přínosy této technologie převažují nad jejími riziky. Toto odvětví by také mělo zvážit zavedení ochranných opatření, která by mohla zahrnovat například to, že generátory deepfake budou do svých výtvorů přidávat vodoznaky.

"Protože právě zpřístupnění této mocné technologie představuje nejvýznamnější hrozbu, vyzýváme také k přehodnocení často laissez-faire přístupu k veřejnému a neomezenému uvolňování kódu, který může kdokoli začlenit do jakékoli aplikace," napsali autoři.

Bohužel na to ale už může být pozdě. Veřejně dostupné modely jsou totiž již schopny vytvářet velmi přesvědčivé deepfakes a je tím pádem nepravděpodobné, že se nám podaří vrátit džina zpět do láhve.

 

ZDROJ

Související