Pozor: Naklonují hlas, vytvoří falešný obraz! A mohou změnit společenské i politické klima

Autor: ahe - 
8. června 2024
05:50

Jsou tu dlouho očekávané dny ve znamení voleb do Evropského parlamentu. A s nimi i obavy o to, aby volby proběhly regulérně, poctivě. S nástupem moderních technologií se ale rizika podvodného ovlivňování zvýšila na maximální míru – tak jako nikdy předtím. Stačí třeba falešné video, známé pod názvem deepfake...  

Rozeznat manipulaci, pravdu od lži bude stále těžší. Možnosti toho, jak se k takovým technologiím dostat, jsou stále rozsáhlejší a bohužel i cenově dosažitelné. 

„Prověřili jsme 36 parlamentních, regionálních a prezidentských voleb, které se konaly od září 2023 do února 2024, a zjistili jsme, že nejméně v 10 případech byly použity k dezinformačním kampaním deepfake videa a audio záznamy s klonováním hlasu. Často se nejedná o práci osamělých vlků, ale o koordinované akce profesionálních skupin. V souvislosti s Evropskými volbami můžeme očekávat novou vlnu podvrhů napříč jednotlivými zeměmi,“ říká Daniel Šafář, Area Manager CEE regionu z kyberbezpečnostní společnosti Check Point Software Technologies (ChPST). Jak dodal, jde o hrozby, ve kterých deepfake technologie ovlivňují důvěru ve volby i jejich průběh. „Je nutno říct, že se nejedná pouze o technologickou hrozbu, ale i o demokratické ohrožení dotýkající se všech členských států EU,“ doplnil Šafář.

Podvodný obsah jako obchod

Zmíněná firma upozorňuje na to, že třeba na Telegramu jsou v současnosti stovky kanálů (přibližně 400–500) a skupin, které se specializují na deepfake služby. Některé jsou řízené jen automaty, které případné uživatele provedou celým procesem, jiné jsou již na klíč, poskytované přímo jednotlivými kyberzločinci. Velmi znepokojivé je to, že vytváření podvodného obsahu je i cenově dostupné. Ceny totiž začínají podle společnosti ChPST na 2 dolarech za video, za 100 dolarů si lze zaplatit více videí a pokusů.

Naklonovat hlas je hračka

Pokrok ve vědě a technice se tak bohužel opět stává nástrojem, který se dá zneužít k ne zrovna dobrým cílům. Pokud máte pocit, že někoho bezpečně poznáte podle hlasu, tak pozor! Klonování hlasu se používá k replikaci toho, jak daná osoba mluví, již velmi často a s pozoruhodnou přesností. Analyzuje se výška, tón a styl hlasu, takže umělá inteligence (AI) pak dokáže vygenerovat přesvědčivé falešné proslovy, které věrně napodobují originální hlas. Přitom stačí jen několik sekund zvuku z online videa nebo jiné nahrávky. I v tomto případě jsou ceny poměrně nízké, začínají přibližně na 10 dolarech za měsíční paušál, ale mohou se vyšplhat i na stovky dolarů v závislosti na kvalitě poskytovaných funkcí.

Šíření dezinformací

Falešná videa, tedy deepfake podvrhy, mohou být použity k šíření dezinformací a manipulaci s veřejným míněním. „Je zde však ale i potenciální hrozba kybernetických útoků na infrastrukturu volebních systémů,“ varuje šéf ChPST Šafář.

Jako příklad uvedl situaci, kdy během parlamentních voleb na Slovensku byla vidět snaha ovlivnit veřejné mínění pomocí klonování hlasu kandidátů.

„Při těsných výsledcích voleb mohou rozhodnout o vítězi i velmi drobné vlivy a vychýlit pomyslný jazýček na vahách jedním nebo druhým směrem. Podobně jsme viděli snahu ovlivnit polské volby pomocí videa se zvukem generovaným AI technologiemi,“ poukázal. A nejde jen o specifikum Evropy, i mnoho dalších zemí má podobné zkušenosti.

Je proto nutná ostražitost a spolupráce na všech úrovních, aby byla zachována integrita volebního procesu. V kontextu voleb totiž mohou podobná videa poškodit nejen reputaci politiků a šířit falešné zprávy. V konečném důsledku mohou významně ovlivnit rozhodování voličů.

Záškodníci za monitory

Podle Daniela Šafáře se dá očekávat i vlna hacktivistických útoků, zejména v podobě DDoS útoků na nejrůznější služby a exponované webové stránky. „Například během českých prezidentských voleb se proruská hacktivistická skupina NoName057 snažila vyřadit z provozu stránky některých kandidátů a vyvolat atmosféru strachu,“ uzavřel.

Co je to deepfake technologie?

Využívá strojové učení a umělou inteligenci k vytváření nebo úpravě videí a zvukových nahrávek, aby vypadaly a zněly autenticky. Vyobrazené osoby pak mohou dělat a říkat věci, které ve skutečnosti nikdy neudělaly ani neřekly. V případě použití před volbami mohou vést k destabilizaci politického prostředí. Následkem může být nedůvěra v demokratické instituce a procesy.

Národní hackerské skupiny a další kyberzločinci se mohou pokusit narušit průběh voleb i různými sofistikovanými útoky a snahou o špionáž a úniky dat, aby ovlivnili výsledky voleb ve prospěch určitých politických skupin nebo ideologií.

Jaká je obrana?

  • Ověřovat zdroje: Naučte se rozpoznávat spolehlivé zdroje informací a vyhýbejte se sdílení nedůvěryhodného obsahu, který by mohl manipulovat vašimi přáteli.
  • Vzdělávat se: Klíčové v boji s manipulací a dezinformacemi je vzdělávání a používání kritického myšlení. Užitečné je účastnit se například workshopů nebo kurzů o mediální gramotnosti, abyste rozpoznali falešný obsah.
  • Využívat technologie pro dobrou věc: Využívejte dostupné nástroje pro detekci deepfake a jiného manipulativního obsahu. Sociální sítě a platformy by měly informovat uživatele o možnosti, že obsah může být zmanipulovaný.
  • Pozor na nevyžádané zprávy: Neotvírejte e-maily nebo přílohy od neznámých zdrojů nebo osob. Na zprávy zároveň nijak nereagujte a rovnou je smažte, případně je nahlaste.

Video  Expert o umělé inteligenci: Je to mocný nástroj. Jak se bránit proti deepfakes?  - Bára Holá
Video se připravuje ...

pindal ( 10. června 2024 21:44 )

Tak,dnes už se může každý politik vymluvit na to,že to neřekl on?

Jirik-ta ( 10. června 2024 06:54 )

asi si paranoia 👎

Jan Reichardt ( 8. června 2024 23:51 )

Byl jsem prodavač, jak jsem mohl ovlivnit můj příjem? V jednadvaceti letech jsem se jím vyučil.

Jan Reichardt ( 8. června 2024 16:30 )

Horníka jsem nedělal, jinak jako ostatní. V tom to ale není.

Jirik-ta ( 8. června 2024 15:54 )

Šéf kampeličky z kauzy Fialova milionu je po smrti. Pátrala po něm policie

Zobrazit celou diskusi
Video se připravuje ...
Další videa