Víme, že vás reklamy otravují, můžete nezávislou žurnalistiku podpořit i jinak, například prostřednictvím systému Darujeme.cz.
,

Lidé, kteří neexistují. Falešného člověka lze snadno odhalit, prozradí ho příliš symetrické oči

VIDEO. Přestože ve skutečnosti neexistují, pomáhají šířit propagandu. Věrohodně působící fotografie falešných osob lze snadno vygenerovat díky veřejnému online nástroji. Jejich odhalení je však prozatím poměrně jednoduché – pomůže čára vedená prostředkem obličeje.

„Chci, abyste se seznámili s Vladimirem Bondarenkem, bloggerem z Kyjeva, který opravdu nenávidí ukrajinskou vládu. A který zároveň neexistuje. Jde o výtvor ruských trollích farem útočících na Ukrajinu a jeho obličej vygenerovala umělá inteligence,“ informoval novinář Ben Collins z NBC News na začátku války na Ukrajině.

Bondarenko je výtvorem jednoduchého online nástroje ThisPersonDoesNotExist.com, generátoru fotografií neexistujících lidí. Neexistující blogger byl využit k šíření proruských dezinformací a „vysvětlení“ válečného konfliktu.

I když jde o poměrně věrohodnou manipulaci, lze ji zatím stále ještě odhalit lidským okem. Když se člověk pozorně podívá na tvář Vladimira Bondarenka, zdá se, že mu chybí kousek levého ucha. Jde o problém nedokonalé umělé inteligence, které často unikají detaily.

Jak odhalit neexistujícího člověka?

Propaganda není zdaleka jediná možnost negativního využití neexistujících lidí. Mohou posloužit také jako falešní uživatelé na sociálních sítí k manipulativnímu politickému marketingu nebo třeba k vytváření falešných recenzí na produkty na recenzních platformách.

Nechat se napálit může být v takovém případě snadné, ale stejně tak se tomu dá i vyvarovat. K rozpoznání vygenerovaného „člověka“ si stačí představit svislou čáru ve středu profilového obrázku. Na rozdíl od skutečných lidí mají ti umělí obě oči ve stejné vzdálenosti od středu.

Pokud si člověk nebude jistý ani poté, je dobré se zaměřit na chyby, které umělá inteligence při generaci obrázků stále ještě dělá.

HlídacíPes.org je popisuje v minutovém videu zde:

@hlidacipes Lidé, kteří neexistují. Generátor falešných lidí ThisPersonDoesNotExist je děsivý, ale zatím ne dokonalý. Více ve videu. #FactFeed #fyp ♬ původní zvuk – HlídacíPes.org


Projekt „Žurnalistikou na TikToku proti dezinformacím a informačnímu chaosu“ vzniká s podporou Nadačního fondu nezávislé žurnalistiky.

Líbil se vám tento text?

Podpořte nás prostřednictvím Darujme nebo převodem pomocí QR kódu

Moc děkujeme za podporu!

QR kód
Líbil se vám tento text? Pokud nás podpoříte, bude budoucnost HlídacíPes.org daleko jistější.Přispět 50 KčPřispět 100 KčPřispět 200 KčPřispět 500 KčPřispět 1000 Kč

LockPlatbu on-line zabezpečuje Darujme.cz

Podpořte novináře

1 komentář

  1. A.S. Pergill napsal:

    Ta přílišná symetrie je ovšem prkotina, kterou vyřeší IMHO pár řádků programu navíc.
    Prostě platí, že žádnému videu na internetu se v principu nedá věřit, protože neustále roste kvalita i free nástrojů na jejich manipulaci, neustále roste výpočetní výkon (který může ledacos zvládnout hrubou silou). Já pamatuji doby, kdy se fotorealistický obrázek z ukázkových programů (či skriptů) pro POVRay generoval ve slušnější kvalitě (jaká je dnes brána za značně nekvalitní) přes noc. Dnes je to na rychlejším počítači záležitost necelé sekundy.

Přidávání komentářů není povoleno