Nový český zákon o AI: Co byste měli vědět

  • Datum 1. 10. 2025
11 minut čtení

Ministerstvo průmyslu a obchodu zveřejnilo návrh zákona o umělé inteligenci. Navazuje tím na nařízení EU známé jako AI Act. Komě nutné administrativy v něm řeší třeba zřízení tzv. regulačního sandboxu, který má zjednodušit menším podnikatelům uvést rizikovější AI nástroj na trh. 

Krátce o AI Actu

Návrh nového zákona se pohybuje v mantinelech, které představil evropský AI Act. Psali jsme o něm už dříve v tomhle článku. Na úvod zmiňme, že toto nařízení EU už se částečně používá – letos v únoru došlo k zákazu některých AI systémů. Jedná se zejména o umělou inteligenci jako vystřiženou ze seriálu Black Mirror, zahrnující například systémy social scoringu, predikce trestné činnosti nebo tvorbu necílených databází biometrických údajů získaných z kamer.

Spolu se zákazem některých AI systémů se uplatní i povinnost firem zajistit AI gramotnost svých lidí. V srpnu pak na tyto první vlaštovky navázaly povinnosti pro obecné modely umělé inteligence (např. modely od Open AI nebo Google) a některá ustanovení o pokutách, mlčenlivosti veřejných orgánů při nahlížení „pod pokličku“ AI nástrojům a další spíše procesní ustanovení.

Vše se teď chystá na den D, kterým je 2. srpen 2026. Od tohoto data se uplatní jádro AI Actu – povinnosti pro takzvané vysoce rizikové systémy. O těch v detailu až někdy příště. Ale ve zkratce, pokud se vaše AI (nebo AI, kterou používáte) týká biometriky, kritické infrastruktury, vzdělávání, zaměstnávání nebo finančních služeb, určitě zpozorněte a na AI Act se připravujte. U vysoce rizikové AI byste měli připravit příslušnou dokumentaci, registrovat AI a absolvovat tzv. posouzení shody.

Český zákon

AI Act dává na několika místech členským státům povinnost učinit nějaké doplňující rozhodnutí. Oceňujeme to, že český návrh zákona tyto požadavky AI Actu nepřekračuje, je poměrně stručný a nepřidává žádné povinnosti navíc. Zákon odpovídá hlavně na následující otázky:

  • Kdo u nás bude AI řešit? Každý stát musí mít orgán, který kontroluje dodržování AI Actu. Hlavním z nich je u nás ČTÚ. Ten doplňují ještě ČNBÚOOÚ v rámci své specializace. Dohled nad základními právy v souvislosti s AI připadne veřejnému ochránci práv. Ten bude tedy řešit zejména diskriminaci v souvislosti s používám vysoce rizikové AI. Kromě toho zde máme i méně známý Úřad pro technickou normalizaci, metrologii a státní zkušebnictví – ten bude hlídat odborníky, kteří budou rizikové AI systémy posuzovat a certifikovat.
  • Jak probíhají některá řízení? AI Act umožňuje za určitých podmínek testovat vysoce rizikovou AI v reálných podmínkách a povolit provoz takového systému bez posouzení shody. Pokud se zjistí porušení některých ustanovení AI Actu, může vám orgán dozoru zase nařídit provést určité opatření k nápravě. Návrh zákona stanovuje lhůty a další procesní okolnosti těchto řízení. Ve zkratce jde říct, že půjde o složitější správní řízení, která mohou trvat déle, mají však jasné limity pro rozhodnutí (90 dnů pro testování, 120 dnů pro povolení provozu).

Jako na pískovišti

Zajímavou součástí návrhu zákona – která doufejme nezůstane jen u teorie – je zřízení takzvaného regulačního sandboxu. Ten má provozovat Česká agentura pro standardizaci. Tento sandbox má být „pískovištěm“ zejména pro malé a střední podniky, které chtějí vyvíjet AI a už od začátku interagovat se státem a s jeho pomocí testovat novou AI v reálném prostředí a se skutečnými klienty. Jedná se tedy o určité „bezrizikové testování AI v provozu“.

Možná vás napadá, jaké jsou výhody tohoto postupu? Tím je výstupní zpráva o splnění podmínek sandboxu, která by měla vést k urychlení rozhodování o posouzení shody. Jinými slovy, nová riziková AI může být potom rychleji registrována a schválena. Zároveň jsou projekty v sandboxu dočasně chráněné od přemrštěné administrativy a regulací, což poskytuje čas na rychlé pivotování a škálování AI projektu.

Naděje je, že regulační sandbox bude fungovat podobně jako jiné příklady využití tohoto moderního přístupu k regulaci ve světě – například britský sandbox pro finanční služby, kterého se s moderními produkty účastnily i velké banky jako Barclays nebo HSBC. Vše bude záležet na pravidlech sandboxu, která vydá Česká agentura pro standardizaci, jakož i na rozsahu financí přidělených ze strany Ministerstva průmyslu a obchodu.

Zatím víme hlavně to, že účast v sandboxu bude probíhat na základě uzavření smlouvy, minimálně pro menší firmy má být zdarma. Česká agentura pro standardizaci uzavřela memoradum o spolupráci s Českou asociací umělé inteligence a chce využívat konzultace s odborníky z praxe.

Přístup státu

Určitě lze ocenit to, že návrh zákona je připravený po konzultaci s odborníky a sami zástupci Ministerstva průmyslu a obchodu k regulaci přistupují realističtěji než samotná EU. Snahy ČR o odklad účinnosti AI Actu nebo jeho zařazení do tzv. digitálního omnibusu EU (balíček, který má snížit byrokratickou zátěž některých regulací zvláště pro startupy a menší firmy) zatím nepadly na úrodnou půdu.

Avšak z vyjádření zástupců ministerstva vyplývá alespoň to, že není cílem vývojáře ani uživatele AI automaticky sankcionovat. Spolu s důrazem na sandbox a spolupráci s odborníky z praxe se proto snad AI v Česku blýská na světlejší zítřky. 

Jaké povinnosti máte?

Pokud nedojde k odkladu účinnosti, měl by si každý poskytovatel potenciálně rizikového AI systému ověřit, jestli se na něj AI Act vztáhne a začít se připravovat tak, aby nejpozději v srpnu příštího roku mohl oznámit ČTÚ, ČNB nebo ÚOOÚ informace o svojí AI. AI Act a nový zákon však nabízí i možnost se regulaci vyhnout, pokud si myslíte, že by se vás týkat neměla – na to si však musíte nechat zpracovat analýzu a oznámit její výsledek těmto orgánům.

Prvotní informaci k tomu, jestli váš AI systém může být brán jako vysoce rizikový, získáte vyplněním tohoto dotazníku.

Myslete na to, že poskytovatelem vysoce rizikové AI můžete být i tehdy, pokud si AI necháte vyvíjet a následně ji prodáváte, podstatně jste změnili cizí vysoce rizikový systém AI nebo ho zařadíte do svého produktu.

Některé povinnosti máte dokonce i tehdy, pokud potenciálně rizikovou AI pouze zavádíte ve firmě – v takovém případě byste měli minimálně řešit „AI gramotnost“ uživatelů, posoudit dopady používaného systému na základní práva uživatelů, stanovit pravidla pro vkládání dat do AI, zavést některá bezpečnostní opatření a určit osoby pověřené dohledem. 
Pokud byste chtěli tímto procesem provést, podívejte se na naše konzultace nebo rovnou napistenam@elegal.cz.

Štítky

Autor článku

Ondra se zaměřuje hlavně na IT právo, duševní vlastnictvíe‑commerce. Nejvíc tíhne k vývoji software, včetně videoher. Má zkušenosti prakticky se vším, co se software týká. Kromě samotného vývoje (waterfall i agilního) vám pomůže i s jeho licencováním nebo servisem. 

Navíc se zajímá i o oblasti umělé inteligence, kybernetické bezpečnosti nebo digitalizace a rád sdílí novinky z oblasti technologií na svém LinkedIn. Poradí vám ale i pokud jste e‑shop anebo když řešíte ochranné známky či průmyslové vzory.

Specializace:

  • Autorská práva a duševní vlastnictví
  • IT právo & technologie
  • Marketingové právo

Nebudete chtít jiné právníky.

Naše výstupy jsou špičkové
a srozumitelné

Máme praktický přesah a myslíme
na všechny situace

Jsme spolehliví a
věci řešíme bez průtahů

Předem víte, kolik
a za co platíte

Buďte v obraze. Jednou za měsíc vám pošleme všechno, co potřebujete vědět, abyste se nedostali do maléru.

E-mail není zadán ve správném formátu (např. vasemail@email.com). X