Příliš klidní lidé v kraťasech uprostřed zimy. Jak podvodníci na síti zneužívají neštěstí v Turecku
Ničivé zemětřesení v Turecku tento týden využili i internetoví podvodníci. Po síti kolují falešná či neaktuální videa, často s výzvami k zaslání finančního příspěvku. „Jsou na videu lidé až moc klidní? Pravděpodobně nejde o video katastrofy, ale o řízenou demolici,“ upozorňuje na jednu z možných nesrovnalostí belgický analytik Brecht Castel, který tato videa ověřuje.
Twitterový účet Turkey Earthquake News zveřejnil již desítky videí, která označuje za záběry zemětřesení v Turecku a Sýrii. Na jednom z nich s popiskem „Bůh nám pomáhej“ se na videu řítí k zemi budova k zemi, zatímco na přilehlé silnici stojí dopravní kolona.
Video má přes dvě stě tisíc zhlédnutí a přes čtyři sta retweetů. A přestože na první pohled může připomínat skutečné video ze zemětřesení, jde o manipulaci. Jak zjistil belgický novinář a OSINT (zpravodajství z otevřených zdrojů, pozn. red.) analytik Brecht Castel, ve skutečnosti jde totiž o záběr řízené demolice ze Saudské Arábie v dubnu 2022.
Vymyšlené tsunami i chlapec z fotobanky
Pochybnosti vzbuzuje i samotný účet, který se vydává za zdroj zpravodajství o zemětřesení. „Pro více zpráv nás sledujte,“ píše se v informacích o účtu, který zároveň odkazuje na internetový obchod, šíří reklamu na kryptoměnu Bitcoin a vznikl teprve v lednu 2023. To vše naznačuje, že jde o reklamní účet, který využívá aktuální události k propagaci svého produktu.
CASE CLOSED, thanks to @LGalrao. 👇
My assumptions above were correct. This is FAKE. ❌❌ https://t.co/EmDuu1GJvI
— Brecht Castel (@brechtcastel) February 7, 2023
Podobných zmanipulovaných záběrů po internetu koluje celá řada. Někteří manipulátoři jdou ještě dál a tvrdí, že v Turecku po zemětřesení došlo k vlně tsunami nebo k výbuchu jaderné bomby.
V případě údajného tsunami ale využívají fotografie z Jižní Afriky z roku 2017 nebo z Indonésie v roce 2018, jak zjistil ověřovací twitterový účet HoaxEye.
Neověřenou informací o jaderném výbuchu sdílel údajný zpravodajský účet, který před tím šířil i jednu z fotografií s neexistující vlnou tsunami (viz screenshoty níže). Žádná seriózní média o tom neinformovala.
Časté jsou i dojemné snímky s opuštěnými dětmi mezi hromadami suti či příběh o tom, jak pes zachránil svého majitele. Díky vyhledávači obrázků od Google lze ale snadno zjisti, že kluk na hromadě suti je ve skutečnosti jen tváří z fotobanky.
Jak zjistil ověřovací tým francouzské tiskové agentury AFP, fotografie psa u zasypaného dítěte ve skutečnosti pochází z roku 2018.
Be wary of poignant or shocking visuals being misrepresented as pictures or video related to the earthquake in Turkey and Syria.
For example, this photo appears to be a stock image dating to 2021, a TinEye reverse image search shows.
The stock version: https://t.co/mMBTHlaFw7 pic.twitter.com/kzU013vETZ
— Bill McCarthy (@billdmccarthy) February 6, 2023
Příliš klidní lidé v kraťasech
Tyto smyšlené příběhy mají vesměs v uživatelích internetu vzbudit emoce a přinutit je, aby zkreslenou informaci šířili a s tím mimoděk také zvyšovali popularitu daného účtu. Některé účty pak mohou přímo žádat o finanční příspěvek, což se dělo třeba i počátkem války na Ukrajině. Proto je bezpečnější finančně pomáhat přes ověřené humanitární organizace.
Začátky krizí – ať už jde o přírodní katastrofu, válečný konflikt nebo třeba pandemii – jsou pro manipulátory snadným hřištěm. Lidé v té době prahnou po nových informacích. Ty jsou ale mnohdy chaotické a situace může být nepřehledná, takže člověk jednodušeji propadne zprávám, které v něm vzbuzují silné emoce.
Ověření je v těchto případech přitom mnohdy jen otázkou pár kliknutí na internetu. V případě vizuálních záběrů se lze zaměřit třeba na počasí či atmosféru v davu:
Související články
Válka v přímém přenosu. Některá „autentická“ videa z Ukrajiny jsou z počítačových her
„Na většině skutečných záběrů z aktuálního Turecka a Sýrie lze vidět, že je tam zima. Když najednou uvidíte velmi slunečné video s lidmi v kraťasech, pravděpodobně bylo video natočeno někdy jindy,“ dává zdánlivě banální příklad Brecht Castel.
„Zároveň se dívejte, jak se chovají na videu místní. Jsou-li klidní, pravděpodobně jde o řízenou demolici a ne o zemětřesení. Může pomoct také vzhled domů, auta či místních. Vypadá to, že jsou z Turecka či Sýrie?“ dodává, na co se třeba i při zběžném čtení zprávy či sledování neověřeného videa zaměřit.
Většinu podobných falešných informací odhalí nástroje, jako jsou vyhledávače obrázků od společnosti Google či projekt TinEye. Ty umožňují najít starší videa a fotografie, když si člověk není jistý, zda jde skutečně o fotografii z aktuální události. Vysokou míru jistoty dává podle Castela i to, když se čtenář nebo divák spoléhá na informace velkých světových médií, která záběry ze sociálních sítí před publikací ověřují.
Pro ty, kdo by se do ověřování videí chtěli ponořit hlouběji a na vlastní pěst, má ještě jedno doporučení: „Nepouštějte si zvuk, pokud to není nutné, hrůza se zvukem proniká do hlavy více než hrůza bez zvuku. Dávejte si pauzy a dělejte i jiné věci. Nenechte si ‚vnutit‘ celé video a dívejte se jen na části, které jsou důležité pro ověření. A nepřehánějte to, pokud se necítíte dobře. Může vám to jako člověku velmi uškodit,“ říká s odkazem na duševní hygienu při sledování podobných zpráv.
Pop-up mobil Mobile (207451)
SMR mobil článek Mobile (207411)
SMR mobil článek 2 Mobile (207416)
SMR mobil článek 2 Mobile (207416-2)
SMR mobil článek 2 Mobile (207416-3)
SMR mobil pouze text Mobile (207431)
Recommended (5901)