Detaily zákazu čínského modelu AI: Vojenské pozadí, únik dat ke komunistům. Přijdou další zákazy?

Autor: Dávid Pásztor - 
22. července 2025
05:00

Česká vláda zakázala používání první umělé inteligence v státní správě. Řeč je o čínském velkém jazykovém modelu DeepSeek. Před několika týdny vláda Petra Fialy (ODS) na svém zasedání zakázala českým úředníkům používat zejména webovou aplikaci modelu kvůli obavám z úniku dát a citlivých informací, které by se mohly dostat do rukou čínské komunistické garnituře.

Zákaz používání DeepSeeku přišlo po doporučení Národního úřadu pro kybernetickou a informační bezpečnost. Ten ve varování, které poskytl vládě v režimu vyhrazené uvedl, že hrozba, kterou DeepSeek představuje, je „pravděpodobná, až velmi pravděpodobná“.

O popsané hrozbě však odborná veřejnost věděla už minimálně půl roku. DeepSeek se objevil už v lednu a od první chvíle odborníci na umělou inteligenci upozorňovali, že model je pod dohledem a cenzurou čínské garnitury a lidé by neměli do něj vkládat svá data. Tehdy však NÚKIB vydal jen „varování před aplikacemi s rychlým nástupem“.

Blesk proto zjišťoval, jestli se čínský režim dostal k citlivým datům českých občanů a úřadů a proč přišel zákaz až teď, půl roku poté, co stejný zákaz vydala Itálie nebo třeba Nizozemí. A používají čínskou umělou inteligenci zaměstnanci české státní správy?

Levný a špatný model?

DeepSeek byl představen v lednu letošního roku jako podezřele levný jazykový model. Později vyšlo najevo, že byl trénován na datech od konkurenčního modelu Chat-GPT od OpenAI, a proto jeho vývoj stál jen zlomek ceny konkurence. Nicméně velice rychle se stal jedním z nejoblíbenějších modelů. Během pár dní se DeepSeek stal nejstahovanější aplikací v USA.

Jenomže nadšení trvalo jen necelý týden a raketový vzestup modelu byl záhy zastaven, protože odborníci zjistili hromadu bezpečnostních problémů, děr v systému, ale i morálních či právních nedostatků.

Jako kuriózní vnímali uživatelé odpovědi systému na dotazy o protestech na náměstí Nebeského klidu nebo o Tibetu. Jako problém vnímali odborníci sběr IP adres, informací o zařízeních a podobně, jelikož tyto informace model ukládá na serverech v Číně, kde podléhají čínským zákonům. A právě tento aspekt teď použil český kyberbezpečnostní úřad, když vydal před používáním aplikace varování.

Vojenské patenty

Kromě rizika spojeného s uchováním dat v Číně NÚKIB ve svém varování upozornil na propojenost společnosti provozující DeepSeek s čínskou vládou na dosavadní kybernetickou špionáž ze strany čínských aktérů (tedy přednedávnem odhalená špionáž čínské skupiny na českém ministerstvu zahraničí), ale třeba i na potencionální vojenskou hrozbu společnosti.

„Zakladatel společnosti DeepSeek Liang Wen-feng byl pravděpodobně prostřednictvím svého vysokoškolského profesora Siang Či-jü, který je prominentním expertem na umělou inteligenci, připojená vozidla a počítačové vidění a taktéž zainteresován do výzkumu technologií dvojího užití. V tomto kontextu je pak nutno upozornit, že Siang Či-jü publikoval studie a je držitelem patentů mimo jiné na téma provozu autonomních vozidel v bitevních prostorech s nepředvídatelným terénem,“ píše kyberbezpečnostní úřad ve své analýze.

I proto po projednání dopisu českou vládou Fialův kabinet raději rozhodl o plošném zákazu používání čínské umělé inteligence na zařízeních státní správy. „Jelikož se jedná o čínskou společnost, dopadají na ni veškeré povinnosti spojené s legislativou Čínské lidové republiky. To zahrnuje nutnost poskytnout součinnost orgánům čínského státu, což může vést k přístupu státního aparátu k datům uchovávaným na serverech v Čínské lidové republice,“ shrnul premiér Petr Fiala rozhodnutí vlády.

Bylo však toto riziko nějak i naplněno, nebo je to jen předběžné varování? Podle informací, které zjistil Blesk, nejpravděpodobněji platí to druhé. „NÚKIB takovými plošnými daty nedisponuje,“ odpověděla mluvčí kybernetického úřadu Alžběta Dvořáková na dotaz Blesku, jestli mají informace o používání modelu ve státní správě. To ale ještě nemusí znamenat, že někde model použit nebyl.

DeepSeek se asi dosud nepoužíval

O používání DeepSeeku na českých úřadech neví ani zmocněnec vlády pro AI a náměstek na ministerstvu průmyslu a obchodu Jan Kavalírek (TOP09). „Nemám informace, že by se něco takového stalo (únik dat z české státní správy do Číny, pozn. red.) a podle informací z NÚKIB, které jsem dostal, tak zákaz vychází z analýzy, která byla jimi vyhotovena na základě preventivního vyhodnocení rizik, ne na základě toho, že by došlo k nějakému úniku dat do Čínské lidové republiky,“ sdělil Blesku.

Podobný pohled má i Lukáš Benzl, ředitel České asociace umělé inteligence. „Myslím si, že mám velmi dobrý přehled o všech AI projektech a aplikacích v rámci veřejné správy nebo třeba i menších samospráv, a doopravdy si toho nejsem vědom. Ostatně i my jako asociace jsme už v době vydání modelu varovali před jeho používáním, nejenom ve veřejné správě, ale třeba i v soukromém sektoru mezi firmami,“ uvedl Benzl na dotaz redakce.

A proč až teď přišel zákaz, když tyto informace nejsou nové? Kavalírek říká, že kybernetický úřad dělal pečlivou analýzu, a to i na základě informací, které zveřejnily zmíněné státy dříve. Ve výčtu kybernetického úřadu najdeme deset států, které do času zpracovávání analýzy zveřejnily své poznatky o fungování čínského modelu.

Na druhé straně Benzl říká, že to českým úřadům, lidově řečeno, trvá. „Apetit české veřejné správy po umělé inteligenci roste, veřejná správa má větší zájem o umělou inteligenci a začíná řešit různé AI projekty. Proto analýza trochu trvá, jelikož začíná narůstat množství projektů ve veřejné správě. Druhá věc je podle mě neflexibilita veřejné správy nebo státních organizací typu NÚKIB. Jednoduše to trvá nějaký čas asi zanalyzovat, zmonitorovat, zdali ten model je doopravdy potenciálně škodlivý, a vydat takovéhle nějaké prohlášení,“ popisuje odborník na umělou inteligenci.

Zákaz není plošný

Zákaz však není plošný. Mimo zařízení ve státní správě lze model nadále používat bez omezení. Pro veřejnost NÚKIB vydal doporučení, jak k rizikům přistupovat. V základu platí, že by uživatel modelu měl pečlivě zvážit, jaká data do modelu vloží a jestli jim riziko za to stojí.

Povinné osoby, tedy státní správa, nemohou používat webové rozhraní produktu, aplikace na mobilních zařízeních a další verze modelu, které aktivně komunikují s internetem. Neplatí to však na lokální model DeepSeek, tedy verzi, kterou si uživatel stáhne a provozuje na svém zařízení nebo serveru. Podle expertů totiž v té open source verzi nedochází k úniku dat.

A co extrémistický Grog?!

Otázkou zůstává, jestli i jiné velké jazykové modely nejsou problematické, ať už z pohledu přístupu k citlivým státním informacím nebo i z morálního hlediska. To druhé kriterium splňuje v současnosti asi nejdiskutovanější AI model Grog od společnosti xAI Elona Muska. Ten byl trénován na datech bývalého twitteru a z pohledu správy a dohledu nad sociální sítí není úplně překvapivé, že po jeho poslední aktualizaci model začal propagovat extrémistické a nacistické názory.

Zmocněnec pro AI Kavalírek popisuje, že o dalších zákazech se tuto chvíli na vládní půdě nemluví. „Nemáme v tuto chvíli informaci, že by nějaký jiný jazykový model, který se používá, dosahoval stejné míry rizika. Nicméně to nic nemění na tom, že velká většina institucí se snaží data, pokud je to možné, mít uchovaná u sebe. Proto jsme zřídili v rámci státních cenin národní cloud úrovně zabezpečení čtyři, kde taky můžou být data uchovávaná,“ líčí detail Kavalírek.

Expert na umělou inteligenci Lukáš Benzl vnímá etické nedostatky u Grogu, ale nepovažuje model za ohrožení v datové oblasti. „Nemyslím si, že o něm vůbec veřejná správa jakkoliv uvažuje. Pokud jde o ostatní modely, třeba od společnosti Meta, tak ta má open source model Llama, který funguje přímo ve verzi pro-government. To znamená, že garantuje nějakou bezpečnost,“ dodává.

Podle něj ale mnohem častěji, než na samotném používaném modelu, záleží na infrastruktuře, která je na zařízeních používána. Důležité je taky, jaká data model sbírá, připojení na internet nebo třeba používání cloudu. „Toto jsou věci, které ale veřejná správa podle mě velmi dobře hlídá,“ popisuje ředitel České asociace umělé inteligence Benzl.

Video  Expert o umělé inteligenci: Je to mocný nástroj. Jak se bránit proti deepfakes?  - Bára Holá
Video se připravuje ...

Buďte první, kdo se k tématu vyjádří.

Zobrazit celou diskusi
Video se připravuje ...
Další videa