Umělá inteligence (AI) se stala jedním z klíčových technologických fenoménů současnosti, který má potenciál zásadně ovlivnit ekonomiku, společnost i každodenní život. S tímto rychlým rozvojem však přichází i snaha o regulace, která má deklarované ambice zajistit bezpečné, etické a odpovědné využívání AI. Evropská unie (EU) se v tomto ohledu stala průkopníkem díky návrhu nařízení známého jako AI Act. Tento legislativní rámec deklaruje za cíl vytvořit jasná pravidla pro vývoj, nasazování a používání AI systémů v EU. Ovšem jako každá regulace, může škodit volnému trhu, podpořit velké a komplikovat život malým firmám, tím se omezuje rozvoj zdravé konkurence.
AI Act, oficiálně nazývaný „Nařízení o umělé inteligenci“, byl představen Evropskou komisí v dubnu 2021 a je prvním komplexním legislativním návrhem na světě, který se zaměřuje na regulaci AI. Návrh rozděluje AI systémy do čtyř kategorií podle rizika: nepřijatelné riziko, vysoké riziko, omezené riziko a minimální riziko. Systémy s nepřijatelným rizikem, jako jsou například technologie sociálního skórování inspirované čínským modelem, budou zakázány. Naopak systémy s minimálním rizikem, jako jsou například AI aplikace pro hry, nebudou podléhat žádné regulaci.
Klíčovým prvkem AI Actu je regulace systémů s vysokým rizikem, které zahrnují například AI používanou v kritické infrastruktuře, zdravotnictví, vzdělávání nebo v oblasti zaměstnanosti. Tyto systémy budou muset splňovat přísné požadavky na transparentnost, bezpečnost a odpovědnost. Vývojáři budou povinni provádět posouzení rizik, zajistit sledovatelnost dat a poskytovat uživatelům jasné informace o fungování systému.
Dalším důležitým aspektem AI Actu je vytvoření evropského rámce pro certifikaci AI systémů. Tento rámec má zajistit, že systémy splňují technické a etické standardy stanovené EU. AI Act také zavádí povinnost pro členské státy vytvořit národní dozorové orgány, které budou dohlížet na dodržování pravidel.
Zatímco EU se zaměřuje na komplexní regulaci AI, přístup USA a Číny se výrazně liší. V USA je regulace AI spíše fragmentovaná a zaměřuje se na specifické sektory, jako je zdravotnictví nebo doprava. Například Federální úřad pro letectví (FAA) reguluje využití AI v leteckém průmyslu, zatímco Úřad pro potraviny a léčiva (FDA) se zabývá AI v medicínských zařízeních. V roce 2022 Bílý dům představil „Blueprint for an AI Bill of Rights“, který stanovuje základní principy pro ochranu občanů před riziky spojenými s AI, jako je diskriminace nebo narušení soukromí. Tento dokument nemá právní závaznost a spíše slouží jako doporučení.
Čína přistupuje k regulaci AI s důrazem na státní kontrolu a podporu technologického rozvoje. V roce 2022 vydala Čína pravidla pro algoritmické systémy, která vyžadují, aby společnosti poskytovaly uživatelům možnost vypnout personalizované doporučování a zajistily transparentnost algoritmů. Čína také aktivně podporuje vývoj AI prostřednictvím státních investic a strategických plánů, jako je „New Generation Artificial Intelligence Development Plan“ z roku 2017.
Vedle krásných deklarovaných cílů, přináší každá regulace i řadu skrytých problémů. Přísná regulace, jako je AI Act, může zpomalit vývoj a nasazování AI systémů kvůli zvýšeným nákladům na dodržování pravidel. Malé a střední podniky (MSP) mohou mít obtíže s plněním požadavků na certifikaci a posouzení rizik, což by mohlo vést k jejich znevýhodnění na trhu. Silnějším hráčům to naopak může pomoci, k získání monopolního postavení.
Zdroj: eGOVERNMENT.NEWS
Zdroj: B2B NETWORK NEWS