Neděle 15. září 2024
Svátek slaví Jolana, zítra Ludmila
Zataženo, déšť 14°C

Kauza Verešové s pornovideem: O montážích by mohl vyprávět i Zeman, deepfake se šíří světem

Autor: Markéta Mikešová - 
5. ledna 2021
05:25

Nepříjemnou záležitost řeší v posledních dnech modelka Andrea Verešová. Na internet uniklo video, které údajně zobrazuje ji a jejího manžela při pohlavním aktu. Verešová autentičnost záběrů popřela a nechala se slyšet, že jde o videomontáž. Podobné falešné záznamy skutečně vznikají. Říká se jim deepfake a znepokojují stále více odborníků. Lze je totiž zneužít k šíření dezinformací, před technologií varuje i Europol. V Česku jsme takto mohli vidět třeba falešného prezidenta Miloše Zemana. A to rovnou několikrát.

Máte problém rozpoznat, jestli jsou zpráva nebo obrázek reálný? Pak k tomu přidejte falešné video a zmatek je zaručen. Lidé už si celkem zvykli, že fotografie nutně nemusí ukazovat realitu, videa ale stále byla považovaná za formát, který nelze ošálit. V dnešní době však i tohle pravidlo padlo, stačila k tomu umělá inteligence a pokročilé editační programy.

Termín deepfake se skládá ze dvou slov – fake jako falešný a deep odkazující na disciplínu umělé inteligence hluboké učení (deep learning). Hluboké učení je součástí většího balíčku jménem strojové učení, což jsou algoritmy, které se umí učit samy. Dáte jim nějaký základ a ony z něj dokážou vytvořit něco zcela nového. Hodně zjednodušeně řešeno.

Deepfake jsou tedy umělé obrázky, kterým počítač přiřadil falešný obličej nebo zvuk a dokázal je převést do formy videa. Může ale vytvořit i neexistující lidi. Meze v podstatě neexistují, je to jako Photoshop v hýbající formě. A to z technologie dělá velmi nebezpečný nástroj.

K čemu montáže slouží?

Použití je široké. Může to být prostě sranda, už dnes si lze na mobil stáhnout aplikace, které váš obličej přiřadí například do slavných filmových scén (aplikace Zao, FakeApp či Reface). Delší dobu se princip využívá v oboru digitálních efektů, když například filmaři potřebují použít mladší verzi nějakého herce.

Ale mnohem horší použití je k podvodům, které můžeme rozdělit do tří kategorií. První je zneužití tváří celebrit k šíření pornografie, v temných koutech internetu takto zločinci distribuují záznamy s hollywoodskými herečkami, byť žádná z nich podobná videa nikdy nenatočila. Veřejně nad tím zoufala mimo jiné Scarlett Johanssonová, která patří mezi nejčastější oběti deepfake pornografie – snahu bojovat s tím nazvala jako ztracenou.

Následují finanční a korporátní podvody, kdy se někdo pomocí falešného videa snaží z lidí vylákat peníze. Zatímco deepfake pornografie už existuje několik let, tento princip je relativně nový a zločinci teprve zjišťují, k jakým možným finančním nekalostem mohou novou technologii zneužít.

A pak je tu kategorie sociální inženýrství, „klasické“ dezinformace a manipulace voleb. Ty možná mají společensky nejhorší dopady. Videomontáže lze totiž skvěle zneužít k šíření politických motivů, různým politikům můžete do úst vložit věci, které nikdy neřekli. Deepfake se už k těmto účelům používají.

Falešné video vedlo k vojenskému převratu

Potvrzuje to fakt, že skoro každý si vzpomene na nějaké zvláštní video s politikem, o kterém se nakonec ukázalo, že bylo falešné. Jmenovitě můžeme zmínit prezidenta Miloše Zemana a záběry, jak čile pomáhá během své návštěvy v Číně stařence. Anonym toto video před rokem a půl rozesílal do redakcí českých médií, neznámo proč. Později se ukázalo, že šlo právě o deepfake, Zeman v podobné situaci nikdy nebyl, což potvrdil i jeho mluvčí Jiří Ovčáček. Ten dokonce celou montáž označil za „roztomilou“, ale pořád falešnou. Až po roce a půl se k mystifikaci přihlásil Kazma.

Je to přesný příklad toho, jak vážné deepfake mohou být – v jeden moment celé Česko řešilo, jestli Zeman opravdu stařence v Číně pomohl. Druhé falešné prezidentovo angažmá už bylo o něco jasnější, jeho tvář použila televize HBO k propagaci svého seriálu Bez vědomí, a to čistě proto, aby na sílu technologie upozornila.

Prezident Miloš Zeman je na fotografii vpravo. Vlevo je pomocí moderních technologií vyrobený dvojník. Prezident Miloš Zeman je na fotografii vpravo. Vlevo je pomocí moderních technologií vyrobený dvojník. | Facebook: SYMBIO, Reuters, Blesk

Pořád je to ale nic proti rozruchu, který vyvolalo deepfake video v drobném africkém státu Gabon. Armáda se tu v reakci na něj pokusila o vojenský převrat. Politické špičky se obecně stávají terčem montáží stále častěji, existuje mnoho záznamů falešného Donalda Trumpa, Vladimira Putina nebo britské královny Alžběty II.

Europol: Značný potenciál pro škodlivé účely

„Tato technologie je vychvalována jako mocná zbraň v dnešních dezinformačních válkách, protože už se nikdo nemůže spolehnout na to, co vidí a slyší. Spolu s dosahem a rychlostí internetu, sociálními sítěmi a aplikacemi pro posílání zpráv se deepfake mohou dostat k milionům lidí v extrémně krátké době. S ohledem na tento krátký časový rámec mají deepfake značný potenciál pro škodlivé a kriminální účely,“ konstatuje listopadová zpráva Europolu o hrozbách umělé inteligence.

Deepfake věnuje třetinu dokumentu. Zmiňuje dokonce variantu, že by tím byl vyvolán jaderný poplach, byť by zřejmě žádné fyzické důsledky neměl. A upozorňuje, že přehršel falešného obsahu může způsobit, že lidé už nebudu věřit ničemu, ani tradičním médiím. Může tak nastat stav, který nazývá „informační apokalypsou“ či „apatií k realitě“.

Jak poznat deepfake

I když jsou falešná videa pokročilá, stále nejsou dokonalá. Společnost Norton, která se zabývá tvorbou antivirových programů, uvádí několik prvků, které vám mohou napovědět, že záznam není pravdivý.

  • Postavy nemrkají.
  • Nepřirozený pohyb očí.
  • Nepřirozený tvar těla.
  • Podivná barva pleti.
  • Nepřirozené vlasy.
  • Pohyb úst neodpovídá slovům.
  • V pozadí je slyšet šum.
  • Podivné pohyby hlavou.
  • Roboticky znějící hlasy.
  • Rozmazaný obraz.
  • Obrazy splývají dohromady.

Microsoft pak společně s výzkumníky z Princetonské univerzity přišel s programem nazvaným Video Authenticator, který má být schopný upozornit, zda je záznam deepfake.

Petr Pan ( 6. ledna 2021 15:11 )

No těch videí má už hodně, tohle máte třeba z dřívější doby http­s://fr­eevi­deo.e­u/se­xy-andrea-veresova-%f0%­9f%91%­8c%f0%­9f%91%­8d/ . Fakt nechápu co se pořád řeší, každý kdo to viděl, tak potvrdil, že to není fake, takže dost možná žádná montáž ani neproběhla.

chyba ( 5. ledna 2021 17:20 )

Microsoft pracuje na programu "Video Authenticator", ktere pouziva umelou inteligenci na odhalovani videi vytvorenych umelou inteligenci. Jen co bude tento programek uvolneny k uziti, jiste si ho Veresova s Volopichem stahnou a podeli se s verejnosti o vysledek

chyba ( 5. ledna 2021 16:54 )

minimalne je na videu deepcocking

nina_nikol7 ( 5. ledna 2021 11:52 )

chapu rozhorceni Volopichovych, ale pri vsi ucte, nejsou tak zajimavi, aby si nekdo dal praci vytvaret s nimi deepfake, vcetne presne umistenych pih. .... proc by to nekdo delal? video jsem videla ( i to druhe se striptyzem), a pokud je toto deepfake, tak autor by mel dostavat nabidky od nejlepsich hollywodskych studii-treba Pixar a tak...😀. je to totiz borec.

chyba ( 5. ledna 2021 09:39 )

deepfake obliceje je jeste porad rozpoznatelny. Porno videa s Veresovou jsou naprosto dokonala vcetne detailu jako jsou materska znamenka, hotelovy pokoj kde se pripravovala na svatbu atd. Takze to porno neni deepfake. Proste se sjela koksem a omylem to nekam odeslala nebo ji nekdo hacknul mobil.

Zobrazit celou diskusi