Pozor: Naklonují hlas, vytvoří falešný obraz! A mohou změnit společenské i politické klima
Jsou tu dlouho očekávané dny ve znamení voleb do Evropského parlamentu. A s nimi i obavy o to, aby volby proběhly regulérně, poctivě. S nástupem moderních technologií se ale rizika podvodného ovlivňování zvýšila na maximální míru – tak jako nikdy předtím. Stačí třeba falešné video, známé pod názvem deepfake...
Rozeznat manipulaci, pravdu od lži bude stále těžší. Možnosti toho, jak se k takovým technologiím dostat, jsou stále rozsáhlejší a bohužel i cenově dosažitelné.
„Prověřili jsme 36 parlamentních, regionálních a prezidentských voleb, které se konaly od září 2023 do února 2024, a zjistili jsme, že nejméně v 10 případech byly použity k dezinformačním kampaním deepfake videa a audio záznamy s klonováním hlasu. Často se nejedná o práci osamělých vlků, ale o koordinované akce profesionálních skupin. V souvislosti s Evropskými volbami můžeme očekávat novou vlnu podvrhů napříč jednotlivými zeměmi,“ říká Daniel Šafář, Area Manager CEE regionu z kyberbezpečnostní společnosti Check Point Software Technologies (ChPST). Jak dodal, jde o hrozby, ve kterých deepfake technologie ovlivňují důvěru ve volby i jejich průběh. „Je nutno říct, že se nejedná pouze o technologickou hrozbu, ale i o demokratické ohrožení dotýkající se všech členských států EU,“ doplnil Šafář.
Podvodný obsah jako obchod
Zmíněná firma upozorňuje na to, že třeba na Telegramu jsou v současnosti stovky kanálů (přibližně 400–500) a skupin, které se specializují na deepfake služby. Některé jsou řízené jen automaty, které případné uživatele provedou celým procesem, jiné jsou již na klíč, poskytované přímo jednotlivými kyberzločinci. Velmi znepokojivé je to, že vytváření podvodného obsahu je i cenově dostupné. Ceny totiž začínají podle společnosti ChPST na 2 dolarech za video, za 100 dolarů si lze zaplatit více videí a pokusů.
Naklonovat hlas je hračka
Pokrok ve vědě a technice se tak bohužel opět stává nástrojem, který se dá zneužít k ne zrovna dobrým cílům. Pokud máte pocit, že někoho bezpečně poznáte podle hlasu, tak pozor! Klonování hlasu se používá k replikaci toho, jak daná osoba mluví, již velmi často a s pozoruhodnou přesností. Analyzuje se výška, tón a styl hlasu, takže umělá inteligence (AI) pak dokáže vygenerovat přesvědčivé falešné proslovy, které věrně napodobují originální hlas. Přitom stačí jen několik sekund zvuku z online videa nebo jiné nahrávky. I v tomto případě jsou ceny poměrně nízké, začínají přibližně na 10 dolarech za měsíční paušál, ale mohou se vyšplhat i na stovky dolarů v závislosti na kvalitě poskytovaných funkcí.
Šíření dezinformací
Falešná videa, tedy deepfake podvrhy, mohou být použity k šíření dezinformací a manipulaci s veřejným míněním. „Je zde však ale i potenciální hrozba kybernetických útoků na infrastrukturu volebních systémů,“ varuje šéf ChPST Šafář.
Jako příklad uvedl situaci, kdy během parlamentních voleb na Slovensku byla vidět snaha ovlivnit veřejné mínění pomocí klonování hlasu kandidátů.
„Při těsných výsledcích voleb mohou rozhodnout o vítězi i velmi drobné vlivy a vychýlit pomyslný jazýček na vahách jedním nebo druhým směrem. Podobně jsme viděli snahu ovlivnit polské volby pomocí videa se zvukem generovaným AI technologiemi,“ poukázal. A nejde jen o specifikum Evropy, i mnoho dalších zemí má podobné zkušenosti.
Je proto nutná ostražitost a spolupráce na všech úrovních, aby byla zachována integrita volebního procesu. V kontextu voleb totiž mohou podobná videa poškodit nejen reputaci politiků a šířit falešné zprávy. V konečném důsledku mohou významně ovlivnit rozhodování voličů.
Záškodníci za monitory
Podle Daniela Šafáře se dá očekávat i vlna hacktivistických útoků, zejména v podobě DDoS útoků na nejrůznější služby a exponované webové stránky. „Například během českých prezidentských voleb se proruská hacktivistická skupina NoName057 snažila vyřadit z provozu stránky některých kandidátů a vyvolat atmosféru strachu,“ uzavřel.
Co je to deepfake technologie?
Využívá strojové učení a umělou inteligenci k vytváření nebo úpravě videí a zvukových nahrávek, aby vypadaly a zněly autenticky. Vyobrazené osoby pak mohou dělat a říkat věci, které ve skutečnosti nikdy neudělaly ani neřekly. V případě použití před volbami mohou vést k destabilizaci politického prostředí. Následkem může být nedůvěra v demokratické instituce a procesy.
Národní hackerské skupiny a další kyberzločinci se mohou pokusit narušit průběh voleb i různými sofistikovanými útoky a snahou o špionáž a úniky dat, aby ovlivnili výsledky voleb ve prospěch určitých politických skupin nebo ideologií.
Jaká je obrana?
- Ověřovat zdroje: Naučte se rozpoznávat spolehlivé zdroje informací a vyhýbejte se sdílení nedůvěryhodného obsahu, který by mohl manipulovat vašimi přáteli.
- Vzdělávat se: Klíčové v boji s manipulací a dezinformacemi je vzdělávání a používání kritického myšlení. Užitečné je účastnit se například workshopů nebo kurzů o mediální gramotnosti, abyste rozpoznali falešný obsah.
- Využívat technologie pro dobrou věc: Využívejte dostupné nástroje pro detekci deepfake a jiného manipulativního obsahu. Sociální sítě a platformy by měly informovat uživatele o možnosti, že obsah může být zmanipulovaný.
- Pozor na nevyžádané zprávy: Neotvírejte e-maily nebo přílohy od neznámých zdrojů nebo osob. Na zprávy zároveň nijak nereagujte a rovnou je smažte, případně je nahlaste.
Tak,dnes už se může každý politik vymluvit na to,že to neřekl on?