Foto: Profimedia

Pestrá historie hlubokých lží. Ještě před dezinformátory našly využití v pornu

Napsal/a Jan Žabka 17. listopadu 2022
FacebookTwitterPocketE-mail

VIDEO. Pomocí umělé inteligence dnes už téměř každý dokáže upravit něčí video tak, aby to vypadalo, že na něm je jiný člověk nebo že dotyčný říká něco, co ve skutečnosti nikdy neřekl. Takzvané „hluboké lži“, neboli deepfakes, mohou být obrazové i zvukové. HlídacíPes.org v krátkém videu přibližuje, jak se tato technologie stala široce dostupnou, dokonalejší a tím i mnohem nebezpečnější.

„Vzdejte se,“ vyzýval ukrajinský prezident Volodymyr Zelenskyj své vojáky na záběrech pořízených údajně v březnu, tedy v samém počátku ruské invaze na Ukrajinu.

Video však nevypadalo uvěřitelně. Falešného Zelenského prozradil nepřirozený poměr velikosti hlavy k tělu, pohyby či mrkání, ale především kontext – neodpovídal totiž běžné rétorice ukrajinského prezidenta.

Přesto se video šířilo po internetu a pravděpodobně některé diváky utvrdilo v pocitu, že dnes již nelze ničemu věřit a vše může být zmanipulované. Jedním z cílů dezinformací je právě to, aby veřejnost nevěřila ani informacím podloženým fakty.

Počátky u filmů pro dospělé

Než se však z fenoménu deepfake stal nástroj dezinformátorů, někteří uživatelé sociální sítě Reddit tuto techniku využívali k naplnění svých erotických představ nebo ke kyberšikaně.

Po síti koloval volně dostupný nástroj výměny obličejů u erotických videí. Kdokoli tak mohl zaměnit obličeje pornohereček za obličeje celebrit nebo svých známých a dostat je do nepříjemné situace.

Později se technika dostala do oblasti politiky a médií, kde se o ní začalo mluvit jako o nebezpečném pokračování dezinformační války. Na internetu se objevila falešná videa ruského prezidenta Vladimira Putina, tehdejšího prezidenta USA Baracka Obamy nebo jeho nástupce Donalda Trumpa.

Dnes zjednodušenou verzi takového nástroje může mít každý v telefonu. Aplikace umožňující záměnu obličeje a rozpohybování statických obrázků jsou mnohdy zadarmo a uživatelsky snadno použitelné.

Hovor za statisíce

Ale deepfake není jen video. Pokud je k dispozici dostatek vstupních dat k napodobení něčího hlasu (například velké množství audionahrávek), může jít i pouze o zvuk.

Přesvědčil se o tom ředitel jedné britské energetické firmy, když v březnu 2019 zvedl telefon svému šéfovi. Ten po něm chtěl převést přes 200 tisíc eur dodavateli v Maďarsku.

„Lehký německý přízvuk a melodie hlasu“ jeho šéfa ho přesvědčily, a tak transakci provedl. Částka však následně byla přesměrována na jiný účet v Mexiku. Když se volající o stejný podvod pokusil znovu, bylo zřejmé, že o německého šéfa vůbec nešlo.

 

@hlidacipesPojďme si říct něco o fenoménu deep fake. Česky: hluboké lži.♬ původní zvuk – HlídacíPes.org


Projekt „Žurnalistikou na TikToku proti dezinformacím a informačnímu chaosu“ vzniká s podporou Nadačního fondu nezávislé žurnalistiky.

Pop-up mobil Mobile (207451)
SMR mobil článek Mobile (207411)
SMR mobil článek 2 Mobile (207416)
SMR mobil článek 2 Mobile (207416-2)
SMR mobil článek 2 Mobile (207416-3)
SMR mobil pouze text Mobile (207431)

Líbil se vám tento text? Pokud nás podpoříte, bude budoucnost HlídacíPes.org daleko jistější.

Přispět 50 KčPřispět 100 KčPřispět 200 KčPřispět 500 KčPřispět 1000 Kč

LockPlatbu on-line zabezpečuje Darujme.cz

Skyscraper 2 Desktop (211796-4)