Lidé, kteří neexistují. Falešného člověka lze snadno odhalit, prozradí ho příliš symetrické oči
VIDEO. Přestože ve skutečnosti neexistují, pomáhají šířit propagandu. Věrohodně působící fotografie falešných osob lze snadno vygenerovat díky veřejnému online nástroji. Jejich odhalení je však prozatím poměrně jednoduché – pomůže čára vedená prostředkem obličeje.
„Chci, abyste se seznámili s Vladimirem Bondarenkem, bloggerem z Kyjeva, který opravdu nenávidí ukrajinskou vládu. A který zároveň neexistuje. Jde o výtvor ruských trollích farem útočících na Ukrajinu a jeho obličej vygenerovala umělá inteligence,“ informoval novinář Ben Collins z NBC News na začátku války na Ukrajině.
Bondarenko je výtvorem jednoduchého online nástroje ThisPersonDoesNotExist.com, generátoru fotografií neexistujících lidí. Neexistující blogger byl využit k šíření proruských dezinformací a „vysvětlení“ válečného konfliktu.
I když jde o poměrně věrohodnou manipulaci, lze ji zatím stále ještě odhalit lidským okem. Když se člověk pozorně podívá na tvář Vladimira Bondarenka, zdá se, že mu chybí kousek levého ucha. Jde o problém nedokonalé umělé inteligence, které často unikají detaily.
Quick thread:
I want you all to meet Vladimir Bondarenko.
He’s a blogger from Kiev who really hates the Ukrainian government.
He also doesn’t exist, according to Facebook.
He’s an invention of a Russian troll farm targeting Ukraine. His face was made by AI. pic.twitter.com/uWslj1Xnx3
— Ben Collins (@oneunderscore__) February 28, 2022
Jak odhalit neexistujícího člověka?
Propaganda není zdaleka jediná možnost negativního využití neexistujících lidí. Mohou posloužit také jako falešní uživatelé na sociálních sítí k manipulativnímu politickému marketingu nebo třeba k vytváření falešných recenzí na produkty na recenzních platformách.
Nechat se napálit může být v takovém případě snadné, ale stejně tak se tomu dá i vyvarovat. K rozpoznání vygenerovaného „člověka“ si stačí představit svislou čáru ve středu profilového obrázku. Na rozdíl od skutečných lidí mají ti umělí obě oči ve stejné vzdálenosti od středu.
Pokud si člověk nebude jistý ani poté, je dobré se zaměřit na chyby, které umělá inteligence při generaci obrázků stále ještě dělá.
HlídacíPes.org je popisuje v minutovém videu zde:
@hlidacipes Lidé, kteří neexistují. Generátor falešných lidí ThisPersonDoesNotExist je děsivý, ale zatím ne dokonalý. Více ve videu. #FactFeed #fyp ♬ původní zvuk – HlídacíPes.org
Projekt „Žurnalistikou na TikToku proti dezinformacím a informačnímu chaosu“ vzniká s podporou Nadačního fondu nezávislé žurnalistiky.
Nová kniha HlídacíPes.org
Publikace vyjde v omezeném nákladu. Pořízením publikace podpoříte projekt HlídacíPes.org.
Kniha nebude ve volné distribuci. Lze ji získat pouze jako poděkování za dar v minimální výši 599 Kč.
Knihu začneme distribuovat krátce před 17. listopadem 2024.
Více o knizePořídit knihuPop-up mobil Mobile (207451)
SMR mobil článek Mobile (207411)
SMR mobil článek 2 Mobile (207416)
SMR mobil článek 2 Mobile (207416-2)
SMR mobil článek 2 Mobile (207416-3)
SMR mobil pouze text Mobile (207431)
Recommended (5901)
Čtěte též
Lidé úžasnější, než jsem já, teď na Ukrajině procházejí spoustou bolesti
Petr Fischer: Vznik republiky a ztracená Masarykova utopie
Skyscraper 2 Desktop (211796-4)
1 komentář
Ta přílišná symetrie je ovšem prkotina, kterou vyřeší IMHO pár řádků programu navíc.
Prostě platí, že žádnému videu na internetu se v principu nedá věřit, protože neustále roste kvalita i free nástrojů na jejich manipulaci, neustále roste výpočetní výkon (který může ledacos zvládnout hrubou silou). Já pamatuji doby, kdy se fotorealistický obrázek z ukázkových programů (či skriptů) pro POVRay generoval ve slušnější kvalitě (jaká je dnes brána za značně nekvalitní) přes noc. Dnes je to na rychlejším počítači záležitost necelé sekundy.