Víme, že vás reklamy otravují, můžete nezávislou žurnalistiku podpořit i jinak, například prostřednictvím systému Darujeme.cz.
Foto: Profimedia
,

Pestrá historie hlubokých lží. Ještě před dezinformátory našly využití v pornu

VIDEO. Pomocí umělé inteligence dnes už téměř každý dokáže upravit něčí video tak, aby to vypadalo, že na něm je jiný člověk nebo že dotyčný říká něco, co ve skutečnosti nikdy neřekl. Takzvané „hluboké lži“, neboli deepfakes, mohou být obrazové i zvukové. HlídacíPes.org v krátkém videu přibližuje, jak se tato technologie stala široce dostupnou, dokonalejší a tím i mnohem nebezpečnější.

„Vzdejte se,“ vyzýval ukrajinský prezident Volodymyr Zelenskyj své vojáky na záběrech pořízených údajně v březnu, tedy v samém počátku ruské invaze na Ukrajinu.

Video však nevypadalo uvěřitelně. Falešného Zelenského prozradil nepřirozený poměr velikosti hlavy k tělu, pohyby či mrkání, ale především kontext – neodpovídal totiž běžné rétorice ukrajinského prezidenta.

Přesto se video šířilo po internetu a pravděpodobně některé diváky utvrdilo v pocitu, že dnes již nelze ničemu věřit a vše může být zmanipulované. Jedním z cílů dezinformací je právě to, aby veřejnost nevěřila ani informacím podloženým fakty.

Počátky u filmů pro dospělé

Než se však z fenoménu deepfake stal nástroj dezinformátorů, někteří uživatelé sociální sítě Reddit tuto techniku využívali k naplnění svých erotických představ nebo ke kyberšikaně.

Po síti koloval volně dostupný nástroj výměny obličejů u erotických videí. Kdokoli tak mohl zaměnit obličeje pornohereček za obličeje celebrit nebo svých známých a dostat je do nepříjemné situace.

Později se technika dostala do oblasti politiky a médií, kde se o ní začalo mluvit jako o nebezpečném pokračování dezinformační války. Na internetu se objevila falešná videa ruského prezidenta Vladimira Putina, tehdejšího prezidenta USA Baracka Obamy nebo jeho nástupce Donalda Trumpa.

Dnes zjednodušenou verzi takového nástroje může mít každý v telefonu. Aplikace umožňující záměnu obličeje a rozpohybování statických obrázků jsou mnohdy zadarmo a uživatelsky snadno použitelné.

Hovor za statisíce

Ale deepfake není jen video. Pokud je k dispozici dostatek vstupních dat k napodobení něčího hlasu (například velké množství audionahrávek), může jít i pouze o zvuk.

Přesvědčil se o tom ředitel jedné britské energetické firmy, když v březnu 2019 zvedl telefon svému šéfovi. Ten po něm chtěl převést přes 200 tisíc eur dodavateli v Maďarsku.

„Lehký německý přízvuk a melodie hlasu“ jeho šéfa ho přesvědčily, a tak transakci provedl. Částka však následně byla přesměrována na jiný účet v Mexiku. Když se volající o stejný podvod pokusil znovu, bylo zřejmé, že o německého šéfa vůbec nešlo.

 

@hlidacipesPojďme si říct něco o fenoménu deep fake. Česky: hluboké lži.♬ původní zvuk – HlídacíPes.org


Projekt „Žurnalistikou na TikToku proti dezinformacím a informačnímu chaosu“ vzniká s podporou Nadačního fondu nezávislé žurnalistiky.

Líbil se vám tento text?

Podpořte nás prostřednictvím Darujme nebo převodem pomocí QR kódu

Moc děkujeme za podporu!

QR kód
Líbil se vám tento text? Pokud nás podpoříte, bude budoucnost HlídacíPes.org daleko jistější.Přispět 50 KčPřispět 100 KčPřispět 200 KčPřispět 500 KčPřispět 1000 Kč

LockPlatbu on-line zabezpečuje Darujme.cz

Podpořte novináře

3 komentáře

  1. STROPNICKÝ JAROSLAV napsal:

    „Pomocí umělé inteligence dnes už téměř každý dokáže upravit něčí video“ tzn., že řeknu nebo napíšu do PC změň osoby nebo věci ve filmu dle mého požadavku, místo xy bude ab atd. Přečtěti si něco o tom co je umělá inteligence, abyste věděl, že dosud žádná neexistuje a ještě hodně dlouho existovat nebude

    • A.S. Pergill napsal:

      Nicméně takovéto programy na bázi neuronových sítí opravdu existují, byť asi není korektní jim říkat UI.
      Navíc je možné postupovat daleko jednodušeji, sice s větší námahou, ale s větší mírou kontroly nad výsledkem.

  2. petrph napsal:

    No, vzhledem k tomu že před nedávnem Musk zavedl na Twitteru placenou identifikaci bez jakékoliv kontroly, tak je asi zbytečné se těma fake hlouběji zabírat, prostě konstatovat, že existují, a mohou být použité a zneužité všude.
    Že bych připomněl, ani stát člověku jenom na ksicht nic nedá , ale musí se mu patřičně prokázat.
    Ale na druhou stranu, všemu co politici řeknou přes média, taky občané věřit nemusí :))))

Vaše e-mailová adresa nebude zveřejněna.