Pondělí 29. dubna 2024
Svátek slaví Robert, zítra Blahoslav
Polojasno 23°C

Od porna k falešnému Trumpovu zatčení. Jak může umělá inteligence ohrozit prezidentské volby?

Autor: newsweek, mav, lig - 
1. května 2023
07:20

Tzv. deepfakes jsou fotografie, videa či jiná média vytvořená počítačem, umělou inteligencí (AI, z angl. Artificial Intelligence), jež vypadají stále věrohodněji – zobrazují tak lidi v situacích, v jakých nikdy nebyli, vkládají jim slova do úst a podobně. V čem je jejich riziko pro politiku, rozebírá magazín Newsweek.

20. března britský novinář Eliot Higgins, zakladatel investigativního serveru Bellingcat, na twitteru zveřejnil vlákno plné skandálních snímků. Donald Trump vzdoruje zatčení, s přesilou policistů se pere, pak přece jen prchá po ulicích… Končí však před soudem a za mřížemi.

Jestli vám přijde, že vás minula zpráva desetiletí, tak vězte, že se nic takového nestalo. „Zatímco čekám na Trumpovo zatčení, vytvářím obrázky zatýkaného Trumpa,“ uvedl novinář své vlákno fake obrázků.

To bylo ve dnech, kdy se psalo o možném zatčení exprezidenta kvůli kauze „držhubného“ pro pornoherečku Stormy Danielsovou. Média byla plná zpráv o tom, jak se Trump chce nechat předvolat v poutech, aby vypadal vzdorovitě, a jak newyorská policie mobilizuje pořádkové jednotky pro případ nepokojů Trumpových stoupenců.

První Higginsovy obrázky vypadají možná uvěřitelně (s notnou dávkou optimismu stran fyzické kondice 76letého, zhruba metrákového Trumpa). Série ale rychle pokračuje absurdněji. Další obrázky jsou skici ze soudní síně (focení u amerických soudů je zakázané). Následující série ukazuje poraženého Trumpa v slzách, stejně jako jeho syny; jen manželka Melania se směje se sklenicí v ruce.

Trump ve vězení

A Trump putuje do vězení, vybírá si oranžový mundúr, vykonává vězeňské práce, posiluje, hraje s dalšími odsouzenci basketbal… Jen aby nakonec prchl kanálem a do podivného fast foodu značky Minonad.

„Oops, evidentně vytváření virálního vlákna o Donaldu Trumpovi programem Midjourney Images stačí k tomu, aby vás na Midjourney zakázali,“ dodal Higgins po dvou dnech. „Aspoň mám ještě ChatGPT-4, takže zde je Vykoupení z věznice Trumpshank.“ A přidal scénář fiktivní parodie na legendární film o úprku z vězení, vytvořený jazykovým modelem ChatGPT-4, který dovede simulovat lidskou konverzaci i písemnou tvorbu.

Deepfakes existují už roky. Roku 2017 se tak jmenoval účet na sociální síti Reddit, který zveřejňoval pornografická videa, na nichž pornoherečky dostaly tváře celebrit. Pár let bylo takové „nedobrovolné porno“ nejčastějším využitím technologií deepfakes. Poslední dobou se však rapidně zlepšuje jejich sofistikovanost – a uvěřitelnost, jakož i uživatelská dostupnost. A dost se rozšiřuje záběr jejich využití.

V březnu 2022, pár týdnů po zahájení ruské invaze na Ukrajinu, se internetem šířilo video, na němž ukrajinský prezident Volodymyr Zelenskyj vybízí vojáky, ať „složí zbraně a vrátí se k rodinám“. Fake.

Bidenova mobilizace

Nedávno se Ukrajiny týkalo zase stejně falešné video, na němž prezident USA Joe Biden ohlašuje obnovení branné povinnosti. „Putinova ilegální okupace Kyjeva a čínská blokáda Tchaj-wanu vytvořily národní bezpečnostní krizi na dvou frontách, jež vyžaduje víc vojáků, než může zajistit dobrovolná služba,“ prohlašuje prezident. „Pamatujte: Neposíláte své syny a dcery do války, posíláte je svobodě.“ Nejprve bylo toto deepfake video, vytvořené ze skutečného Bidenova projevu, a tedy vypadající velmi důvěryhodně, doplněné vysvětlením, že se jedná o podvrh. Jack Posobiec jím ale nechtěl varovat před riziky zneužití umělé inteligence, nýbrž před rizikem mobilizace, jež podle něj skutečně hrozí.

Video se na každý pád začalo šířit i bez tohoto vysvětlení, jak upozorňuje Newsweek. Jeden takový sestřih si za měsíc pustilo přes osm milionů uživatelů twitteru. Sociální síť k němu na základě upozornění od uživatelů doplnila varování, že jde o deepfake.

Spolu s politickou kulturou v USA, kterou stále více prostupují konspirační teorie, dává boom umělé inteligence důvod k obavám o volby, zejména ty prezidentské příštího roku. Neumělý podvrh zvládne amatér za pár minut, do hodiny; zkušení tvůrci dokážou s jistým úsilím generovat obrázky, audio i video, jež jen tak rozpoznat nepůjde.

„Klíčovou otázkou bude, zda se neobjeví nějaký neuvěřitelně kvalitní deepfake, který bude obtížné potvrdit i vyvrátit, v některý kritický moment volebního procesu – řekněme předvečer voleb či před debatou,“ přemítá Henry Ajder, specialista na deepfakes, jenž o nich má pořad na BBC.

„Spousta lidí si není vědoma nebo si na to ještě nezvykla, že můžete docela přesvědčivě klonovat hlasy či generovat zcela nové snímky řekněme zatýkání Trumpa, jak jsme viděli v minulých dnech,“ uvedl pro Newsweek. „Takže když lidé nejsou naočkováni na měnící se prostředí informačních technologií a AI, budou zaostávat a budou náchylnější.“ I když se někde může na první pohled zdát jasné, že jde o podvrhy, mohou se obrázky dostat k jiným čtenářům v jiném kontextu, s jiným komentářem, a už je mohou přinejmenším nahlodat. Zvláště třeba na sociálních sítích, kde je tendence fotky jen rychle projíždět, si lidé nemusí všimnout detailů, které deepfake prozradí, či o tom hlouběji přemýšlet.

Parodie i fake news

„Očekávám, že uvidíme daleko víc deepfake videí s politickými figurami a kandidáty,“ řekl Matthew F. Ferraro, specialista na nové technologie v advokátní kanceláři WilmerHale. „Mnohá z těch videí budou satira a zřejmé parodie. Víc znepokojující budou ta údajně zobrazující politiky v reálných situacích, snažící se klamat voliče, co je pravda a co faleš. Tyto deepfakes mohou zmást voliče a přispět k podrytí spravedlivých voleb,“ konstatuje s tím, že nové podvrhy ještě umocní stávající problémy společnosti s dezinformacemi a konspiračními teoriemi.

„Deepfakeové obrázky zatýkání exprezidenta Donalda Trumpa nebyly zamýšleny k přesvědčování kohokoli, že byl skutečně zatčen, takovou skutečnost lze snadno ověřit,“ komentuje Chris Meserole, specialista na nové technologie v think tanku Brookings Institution. „V poslední době se hodně panikaří, kterak deepfakes mohou přesvědčit lidi o nepravdivých věcech. Ale jak ukazuje případ s Trumpem, nejzhoubnějším využitím deep fakes může být přiživování se na našich nejhorších kmenových impulsech, ať už politických, nebo jiných,“ řekl Newsweeku.

„Experti odhadují, že do roku 2026 může být až 90 % online mediálního obsahu vytvářeno synteticky – generováno nebo manipulováno za použití umělé inteligence,“ uvádí report Europolu (Agentury Evropské unie pro spolupráci v oblasti prosazování práva) o deepfakes. „Ve většině případů se syntetická média generují pro hry, zlepšení služeb nebo kvality života, ale přibývání syntetických médií a zlepšování technologií znamená i možnosti dezinformací, včetně deepfakes.“

Rozmach AI podvrhů ještě přináší jeden další problém. „Lidé budou tvrdit, že skutečné záběry jsou deepfake, i že kvůli rozšíření nástrojů pro vytváření deepfakes nemůžeme už věřit žádným obrázkům,“ řekl Newsweeku Sam Gregory z projektu Witness Media Lab, který se věnuje využívání a ověřování videí jako důkazů.

„Už jsme viděli republikánského kandidáta do Kongresu tvrdit, že video zabití George Floyda bylo deepfake, viděli jsme Trumpovy stoupence říkat, že když na videu odsoudil nepokoje v Kapitolu, nebylo to pravdivé, protože by něco takového nikdy neřekl,“ dodává Ajder.

Siwei Lyuz z Univerzity Buffalo navrhuje čtyři opatření, jak čelit deepfakes. „Využívání jejich generátorů se musí víc regulovat, některé obsahy (politické, finanční, pornografické) zakázat. Jejich výstup musí být označen – viditelný vodoznak či neviditelná stopa, kterou přečte speciální algoritmus,“ uvádí pro Newsweek. Stejně tak je potřeba od provozovatelů sociálních sítí a dalších online platforem, aby na deepfakes dávali pozor. A nakonec vzdělat uživatele.

Video  Blesk Podcast: „Pokud je Verešové porno deepfake, byl by to masterpiece,“ řekl Orsava.  - Blesk
Video se připravuje ...

Buďte první, kdo se k tématu vyjádří.

Zobrazit celou diskusi