AI Act pod lupou

Evropská unie si v nedávné době připsala vydáním nového předpisu s názvem AI Act prvenství pro celý svět. AI Act byl již zveřejněn v Úředním věstníku a stává se tak platným 2. srpna 2024. AI Act zavádí jasná pravidla využívání umělé inteligence. Nařízení mimo jiné klade důraz na ochranu lidských práv a svobod a akcentuje zvýšení bezpečnosti v oblasti využívání AI. V nařízení je možno nalézt různé úrovně rizikovosti spojených s AI.  

Na koho se vztahuje

Povinnosti se tak dotknou celého spektra zainteresovaných stran. Od těch, kteří AI systémy a technologie vyvíjí až po ty, kteří AI denně používají. Největším množství povinností však budou zatíženi hlavně vývojáři AI, ale i ti kteří ji implementují do svých provozů či poskytování služeb.

Platnost nařízení

Platnost nařízení je odstupňována do několika úrovní. 2. února 2025 vejdou v platnost obecná ustanovení a zakázané postupy v oblasti AI. Zároveň do 2. srpna 2025 jsou členské státy povinny zřídit a určit oznamující subjekty. Té vejdou ve stejný termín i sankce a další donucovací opatření. 2. srpna 2026 bude s výjimkou klasifikačních pravidel pro vysoce rizikové systémy AI platit nařízení v plném rozsahu. Uvedená výjimka vejde v platnost jako poslední a to 2. srpna 2027.

Platností AI Actu nebudou dotčeni jen subjekty v rámci EU, rámec zasahuje i mimo hranice členských států. Tedy například pokud je na trh EU uváděn nový AI systém ze zahraničí.

Hlavní body AI aktu

  • Transparentnost a srozumitelnost AI: Musí být zřejmé, když je obsah nebo produkty personalizovány pomocí AI a jsou dostatečně srozumitelně předány.
  • Informovanost uživatelů: Uživatelé musí být informováni o použití AI pro personalizaci a mít možnost ovlivnit, jaká data o nich jsou shromažďována.
  • Dodržování pravidel ochrany údajů: E-shopy se musí řídit přísnějšími pravidly ochrany údajů v souvislosti s AI.
  • Klasifikace rizik: Rozděluje AI systémy do 4 kategorií, pro které jsou stanoveny rozdílné požadavky na regulaci.
  • Odpovědnost za škody: Zvýšená odpovědnost za potenciální škody způsobené rozhodnutími založenými na AI.

Posuzování rizik

Právní úprava využívá principu posouzení rizik a rozlišuje čtyři úrovně rizika systémů AI, přičemž platí pravidlo, že čím vyšší je riziko, tím přísnější jsou i pravidla.

Minimální riziko

Většina současných AI systémů v EU spadá do této kategorie a nevyžaduje nové povinnosti. Poskytovatelé mohou dobrovolně uplatňovat požadavky na důvěryhodnou AI a připojit se k etickým kodexům.

Specifické riziko

Tato kategorie zahrnuje systémy jako jsou chatboti a generativní AI, které musí splňovat zvláštní požadavky na transparentnost, například informování uživatelů, že komunikují s AI a ne s lidskou bytostí.

Vysoké riziko

Systémy AI v této kategorii mohou ovlivnit bezpečnost a základní lidská práva a svobody. V příloze AI aktu nalezneme seznam těchto vysoce rizikových systémů. Patří sem například:

  • Biometrika a systémy biometrické identifikace,
  • Kritická infrastruktura (doprava, energie),
  • Vzdělávání a odborná příprava (hodnocení výsledků, prevence podvádění),
  • Zaměstnání, řízení pracovníků a přístup k samostatné výdělečné činnosti (analýza žádostí o práci),
  • Přístup k základním službám (zdravotní péče, pojištění),
  • Právní a bezpečnostní systémy (prosazování práva, ochrana hranic).

Nepřijatelné riziko

Zahrnuje zakázané způsoby využití AI, například:

  • Systémy sociálního kreditního hodnocení,
  • Biometrická identifikace na dálku v reálném čase na veřejných místech (kromě vymezených případů),
  • Rozpoznávání emocí na pracovišti a ve školách (pokud to není z bezpečnostních nebo zdravotních důvodů),
  • Individuální prediktivní policejní práce,
  • Necílené automatické stahování dat z internetu pro tvorbu databází.

Požadavky kladené na vysoce rizikovou AI

  • Hodnocení dopadu na základní práva a hodnocení souladu
  • Registrace ve veřejné databázi EU pro systémy AI s vysokým rizikem
  • Implementace řízení rizik a systému řízení kvality
  • Správa dat (zmírňování zkreslení, reprezentativní tréninková data)
  • Transparentnost (instrukce pro použití, technická dokumentace)
  • Lidský dohled (vysvětlitelnost, auditovatelné záznamy, člověk v smyčce)
  • Přesnost, robustnost a kybernetická bezpečnost (testování a monitorování)

Budou padat i pokuty

  • Až 7 % ročního celosvětového obratu nebo 35 milionů eur za porušení zakázané AI,
  • Až 3 % ročního celosvětového obratu nebo 15 milionů eur za většinu ostatních porušení,
  • Až 1,5 % ročního celosvětového obratu nebo 7,5 milionů eur za poskytnutí nesprávných informací.

Důvěra v AI

Transparentnost a důvěryhodnost je protkána celým AI aktem. Právě proto musí poskytovatelé AI systémů zajistit, aby lidé věděli, že komunikují s AI, pokud to není zřejmé z kontextu. Systémy, které generují syntetický obsah (ať už zvukový, obrazový, video nebo textový), musí označovat výstupy jako uměle vytvořené ve strojově čitelném formátu, což platí i pro "deep fake" obsah.

Poskytovatelé obecných AI modelů, které vykazují značnou univerzálnost a mohou být začleněny do různých aplikací, musí poskytovat technickou dokumentaci a shrnutí tréninkových dat navazujícím systémům. V neposlední řadě musí mít zavedenou politiku na dodržování autorského práva při školení těchto modelů.

 

Pokud byste s implementací nového nařízení o AI potřebovali pomoci , neváhejte se na naší advokátní kancelář kdykoliv obrátit. Pro další informace sledujte tento náš web, náš FacebookTwitter (X) či LinkedIn.

Kontaktní formulář

Čekejte prosím, odesílám Váš dotaz