Jak donutit Obamu mluvit sprostě: fake news budoucnosti napodobí hlas i mimiku

Napsal/a Tomáš Urban 17. května 2018
FacebookTwitterPocketE-mail

Sotva jsme začali řešit dezinformace, propagandu a velkokapacitní šmírovací systémy, ukazují inovace v oboru umělé inteligence, že budeme na současnost brzy vzpomínat jako na selanku.

Aféra společnosti Cambridge Analytica a Facebooku je jen vrcholkem ledovce, který ukazuje na hlubokou strukturální proměnu veřejného prostoru i našeho soukromí. Sběr dat a sofistikované cílení reklamy totiž využívá drtivá většina společností, které působí na internetu. Může ho za malý peníz využít úplně kdokoliv.

Většina lidí na sociálních sítích sdílí neověřené informace a přidává se do skupin, kde sebe i ostatní utvrzují v těch správných názorech. Editoři volí bulvární titulky, které zaujmou, byť často neodpovídají obsahu nebo ho vytrhávají z kontextu. Děláme to sami, docela dobrovolně, vlastně se jen přizpůsobujeme měnícímu se prostředí.

Problém je, že digitální infrastruktura a algoritmy, které nový mediální ekosystém spoluvytvářejí, využívají naši instinktivní a sociální povahu tak, že si to sami nejsme schopní uvědomit. Elektronická sféra vytváří zvláštní komunikační situace, kdy jsme na sociálních sítích nebo v diskuzních fórech zároveň spolu, ale zároveň každý sám.

Tato distance a nové technologické možnosti umožňují inzerentům, zprávařům, komentátorům, blogerům i běžným diskutujícím experimentovat a posouvat hranice možného i zákonného.

Zůstáváme totiž vždy v závětří svého laptopu a mobilu, mimo „fyzický kontext“ setkání, ve kterých jsme k sobě vstřícnější a chceme být s druhými zadobře. Mimo jiné proto, že osobní komunikace nese riziko tělesných následků, zvlášť při setkání s cizími lidmi.

Na internetu se oproti tomu vnímáme a shlukujeme jako nositelé názorových, politických a dalších skupinových identit, ze kterých na sebe můžeme z bezpečných vzdáleností pálit.

Těžba instinktů

Snadnost, s jakou publikujeme, sdílíme nebo jen lajkujeme příspěvky jiných, podporují vyhledávače, sociální sítě, YouTube, zpravodajské či názorové servery tak, aby nás zapojily a co nejdéle udržely na svých platformách. A mohly nás pak nabízet jako potenciální zákazníky nebo voliče obchodníkům a politickým marketérům.

Nejúčinnějším nástrojem, jak nás angažovat, jsou naše instinkty, emoce a sociální chování. Nejvíc se proto šíří novinky, varování, poplašná sdělení, klepy, rvačky, spory, senzace, praktické recepty, vztek a nenávist, reakce na bezpráví, výroky nepřátel a lidí z druhé strany, proti kterým se můžeme vymezit a získat ocenění uvnitř vlastních skupin, stejně jako za videa s věrnými čápy a nekonečně roztomilými koťátky.

Vše ideálně formou hýbajících se obrázků, dryáčnických titulků a CAPSLOCKOVÝCH VÝKŘIKŮ!!!

Takhle jsme ustrojeni a vybaveni pro přežití a platformy i clickbajtové servery z těchto instinktů těží. Podle exprezidenta Facebooku Seana Parkera se algoritmy zaměřují se na zranitelná místa v lidské psychice, a snaží se nás dlouhodobě připoutat vytvořením zpětnovazebné smyčky potvrzující naši příslušnost ke společenství.

Šíření konspiračních teorií, klepů, lží a bulváru není nic nového, novinkou je rychlost a míra, v jaké se to děje. Tím, že se platformy zřekly odpovědnosti za obsah i žánr a algoritmicky podporují sdělení s magickým „enagementem“, vytvořily prostředí, kde se šíří hlavně hlouposti, extrémní názory a žurnalistika čtvrté cenové skupiny. Není důležité, co je pravdivé, ale jestli vás to nutí držet mobil v ruce nebo civět do monitoru.

Veřejný prostor, černá krabička

Část veřejného prostoru se navíc dostává mimo veřejnou kontrolu. Běžní lidé, regulátoři, novináři a další kontrolní instituce, nerozumí fungování algoritmů, které jim zobrazují určitý obsah a nezobrazují jiný.

Dost možná jim nerozumí ani velká část jejich tvůrců neboť jde o komplikovaný strojový systém vyhodnocující tisíce signálů, do kterého čím dál víc zasahují prvky umělé inteligence.

Takzvaný microtargeting se odehrává formou skryté reklamy, u Facebooku skrze tzv. dark posts, které jsou viditelné pouze očím adresátů.

Ruské ovlivňování prezidentských voleb v USA je jen malou ukázkou fenoménu, který náhodou vyplaval na povrch; obsáhlejší pohled do fungování moderního politického marketingu poskytuje rozhovor s volebním hackerem Andreasem Sepulvedou.

Dostáváme se do situace, kdy nikdo přesně neví, co se mezi lidmi šíří. Další omezení přístupu k API rozhraní Facebooku, které kromě nechvalné Cambridge Analytica využívali i slušní výzkumníci zaručující alespoň nějakou kontrolu platformy, tak vposledku znamená nižší transparenci a další ohrožení svobody.

Z veřejného prostoru se stává pověstná černá krabička, u které navíc nevidíme ani na data na vstupu a výstupu, a o příčinných souvislostech se tak můžeme dohadovat.

Je třeba si uvědomit, že jen služby duopolu Googlu a Facebooku využívá víc než dvě miliardy aktivních uživatelů, kteří jsou potenciálním cílem skryté reklamy. Už tato skutečnost představuje ohrožení demokratických principů, které předpokládají jasná pravidla, jejich kontrolu a vynutitelné dodržování.

Zavedení legislativy na ochranu osobních údajů v EU známé jako GDPR a chystaná regulativní opatření v mnoha zemích jsou jen prvním pokusem o základní ochranu individuálního a veřejného prostoru v rodícím se mediálním ekosystému. A z druhé strany i jejich potencionálním ohrožením, jak ukazují první judikáty v postihování hate-speech v Německu.

Rozvoj technologií založených na umělé inteligenci (AI) ovšem představuje budoucnost, ve které se současné problémy jeví jako procházka růžovou zahradou.

Ještě lepší fejky

Velmi brzy se můžeme dostat do situace, kdy se nebudeme moci spolehnout na vlastní uši ani oči. Co hůř: ani na vlastní přátele. Vývoj umělé inteligence pokročil v mnoha ohledech do stavu, který stírá rozdíly mezi pravdou a její nápodobou.

Část těchto systémů je běžně dostupná a analytici a odborníci na umělou inteligenci z Cambridge, Oxfordu, OpenAi a několika dalších renomovaných institucí vydali v únoru zprávu, ve které varují, že jejich využití se dočkáme už v následujících volbách.

V oblasti syntézy řeči představila v roce 2016 společnost Adobe program VoCo, známý také jako Photoshop na lidský hlas. Umí napodobit libovolného mluvčího a doplnit ho o promluvy, které mu prostě dopíšete.

Podle Adobe stačí programu pouhých 20 minut k vytrénování velmi věrné kopie hlasu. V současnosti je ve fázi vývoje a společnost „zvažuje bezpečnostní záruky, které omezí jeho zneužití“.

Podobný program vyvíjí kanadský startup Lyrebird a můžete si ho zdarma vyzkoušet. Výsledky svého projektu uvolnil i tým pracující pro čínský vyhledavač Baidu a počítačoví výzkumníci z Washingtonské univerzity ukázali, jak je možné jakoukoli promluvu synchronizovat s ústy na obličeji libovolného mluvčího.

Na odstranění „robotího“ přízvuku, který je v ukázkách stále slyšet pak pracuje tým Deep Mind, který v roce 2014 přešel pod křídla Aphabet Group, provozující vyhledavač Google.

Skupina Matthiase Niessnera z Technické Univerzity v Mnichově a Michael Zollhöfer ze Stanfordu představili před dvěma lety program, který umožnuje v reálném čase manipulovat YouTube videa a měnit mimiku mluvčích.

Asi největší pozdvižení mezi vtipálky budí aplikace FakeApp (zdarma ke stažení zde), která umí zaměnit obličeje ve dvou libovolných videích. Stačí několik hodin tréningu neuronové sítě a můžete video se svým vystoupením přehrát obličejem libovolného politika.

Nebo někoho zesměšnit tak, že nahrajete jeho obličej do nějaké pornoscény, což donedávna patřilo k oblíbenému sportu zrušené skupiny na Redditu. Při dobře zvolených scénách a dostatečně dlouhém trénování působí nápodoby vysoce realisticky (viz třeba toto video vytvořené redaktorem BuzzFeedu za účelem demonstrace schopností aplikace FakeApp).

Falešní recenzenti

Umělá inteligence byla úspěšně testována v pokusech ovlivnit platformy na hodnocení míst jako je Yelp. Přestože filtrační systémy zachytily část příspěvků, jiné recenze zůstaly nepovšimnuty.

Podle výzkumu Alessandra Bessi and Emilia Ferrara z University of Southern California tvořili chatboti během amerických prezidentských voleb v roce 2016 pětinu diskuzí pomáhajících na Twitteru Donaldu Trumpovi.

Automatizované účty podporovaly i hashtagy a kauzy Hillary Clintonové, ale s přibližujícím se dnem voleb se aktivita botů obou kandidátů vzdálila podle zprávy Oxfordské univerzity v poměru 4:1 v Trumpův prospěch.

Umělí boti falšující profily známých či armády falešných fanoušků napodobující jazyk a styl libovolných subkultur se mohou za nějaký čas stát běžnou realitou (falšování profilů a krádežím identit se věnoval i HlídacíPes.org).

Systém umělé inteligence známý jako Generative adversarial networks (GANs) umí realisticky napodobit či generovat fotky umělých předmětů, zvířat, rostlin nebo lidských obličejů, které jsou k nerozeznání od reálných lidí.

V podstatě jde o souboj dvou neuronových sítí, z nichž jedna generuje obsah a druhá se snaží detekovat, jestli jde o skutečnost nebo o podvrh. Jeden systém snaží obelstít druhý – druhý se snaží nebýt obelstěn tím prvním.

Pomocí GAN vytvořili ve finské laboratoři výrobce grafických čipů Nvidia umělé fotorealistické obličeje ve vysokém rozlišení

Přestože boti v brzké době ani zdaleka nedosáhnou schopnosti delší dobu napodobovat reálné osoby, může při vhodném cílení a volbě témat stačit i nedokonalá podoba k tomu, aby ovlivnili značnou část lidí.

Mohou tak rozšířit repertoár marketingových kampaní i psychologických operací snažících se vytvořit dojem společenské poptávky, vytáhnout z nás údaje ke kreditní kartě, zasáhnout skupinu lidí personalizovanými spamy nebo nás jinak krátkodobě ošálit vytvořením falešné reality.

Úspěšný boj s technologickou hydrou paradoxně předpokládá větší investici do výzkumu v této oblasti a nasazení systémů umělé inteligence na naši ochranu.

Bezmyšlenkovitá regulace, rezignace a hromadný návrat ke sběru bylin by jen vytvořily prostor pro naše ovlivnění ze strany států a společností, které si vůli k moci a víru v budoucnost cíleně pěstují.

Bez rozumné regulace, masivní investice do mediální gramotnosti a kritického myšlení se neobejdeme. A také bez víry v budoucnost.


Partnerem rubriky (Ne)bezpečná síť je Iseco.cz

Pop-up mobil Mobile (207451)
SMR mobil článek Mobile (207411)
SMR mobil článek 2 Mobile (207416)
SMR mobil článek 2 Mobile (207416-2)
SMR mobil článek 2 Mobile (207416-3)
SMR mobil pouze text Mobile (207431)

Líbil se vám tento text? Pokud nás podpoříte, bude budoucnost HlídacíPes.org daleko jistější.

Přispět 50 KčPřispět 100 KčPřispět 200 KčPřispět 500 KčPřispět 1000 Kč

LockPlatbu on-line zabezpečuje Darujme.cz

Skyscraper 2 Desktop (211796-4)