„Ne pro firmy, ne pro stát“ – pět věcí, které byste měli vědět o Evropském paktu o umělé inteligenci

Nový pakt o umělé inteligenci (AI Act) stanoví společný regulační a právní rámec pro vývoj a aplikaci AI v Evropské unii (EU). Navrhla ji Evropská komise (EK) v dubnu 2021 a v květenu 2024 ji schválil Evropský parlament. Na veletrhu Digital Enterprise Show v Malaze, který se konal 11.–13. června 2024, byla umělá inteligence předváděna na všech stáncích a byla i obsahem v hlavních přednáškách. Mluvilo se o ní jako obrovské obchodní příležitosti, ale pojďme si to shrnout v jednoduchém přehledu.

Můžete to stručně vysvětlit…?“ zněla první otázka na Dana Nechitu, vedoucího kabinetu Dragoş Tudorache, poslance Evropského parlamentu a osobu pověřenou prosazením zákona o umělé inteligenci. „No, pracovalo se na tom pět let a mělo to asi 450 stran,“ odpověděl. „Takže, co je to stručné?“ Nicméně rozhovor s p. Nechitou byl dobrý a zajímavý a velmi dobře se mu podařilo vysvětlil postoj EU.

Nejprve však pár slov k načasování. Poslanec Nechita řekl: „Hlasovali jsme o tom teprve před několika týdny. Bylo to konečné-konečné-konečné hlasování, protože jich předcházelo několik neúspěšných. Zákon musí být zveřejněn v Evropském věstníku do konce června a pak máte šest měsíců na to, aby pravidla vstoupila v platnost, 12 měsíců na zřízení Úřadu pro umělou inteligenci a 24 měsíců na systém kontroly vysoce rizikových případů.“

Po uplynutí tohoto časového rámce do roku 2026 stanovila EU další 36měsíční lhůtu, do které mají být nová nařízení o umělé inteligenci uplatněna zpětně na produkty, které jsou již na trhu. Cílem je odlehčit regulační zátěž prodejcům klíčových chytrých zařízení – jako jsou zařízení používaná pro lékařskou péči – a vyhnout se tak narušení veřejných služeb mezi členskými státy. Jde o to, že i při tak dlouhém implementačním cyklu zákona o umělé inteligenci to bude mít vlastně okamžitý dopad.

Sám Nechita to přirovnal k dřívějšímu postoji EU k ochraně osobních údajů. Když EU v roce 2016 přijala obecné nařízení o ochraně osobních údajů (GDPR) (s účinností od roku 2018). Zejména USA a Velká Británie prosazují své vlastní verze, ale Nechita se domnívá, že verze pro EU se prosadí. „Stejně jako v případě GDPR, kde jsme se rozhodli dobře a takto chráníme osobní údaje. GDPR není dokonalé, ale má globální vliv. Zákon o umělé inteligenci bude stejný.

Každopádně, zde je aktuální shrnutí zásadních bodů z Nechitova rozhovoru o novém zákonu o umělé inteligenci v Evropě na Digital Enterprise Show.

Horizontální a zaměřené na člověka

Stručně řečeno a v reakci na původní žádost o stručné shrnutí Nechita poznamenal: „Zákon o umělé inteligenci je horizontální nařízení založené na rizicích zaměřené na člověka pro ochranu zdraví, bezpečnosti a základních práv. Otázkou rizika se budeme podrobněji zabývat následně, ale v opačném pořadí jde o to, že pravidla jsou vytvořena tak, aby řídila vývoj umělé inteligence na podporu evropských občanů a chránila jejich lidská práva tak, jak jsou definována v Evropě.

Není to pro firmy a není to ani pro stát,“ řekl Nechita o ochraně a také o správném používání umělé inteligence. Druhým bodem je, že tato nová pravidla platí všude („horizontálně“) – ve všech členských státech a ve všech odvětvích. „Vyplňuje mezery ve stávající evropské regulaci,“ řekl. Stejně jako obecné nařízení o ochraně osobních údajů (GDPR) se i zákon o umělé inteligenci vztahuje exteritoriálně – na společnosti mimo EU s uživateli v EU. Což znamená, že se to velmi jasně vztahuje na „velké technologické společnosti“.

Ale jeho horizontální dosah ve skutečnosti nedosahuje všude. Nevztahuje se například na systémy UI pro vojenské účely a účely národní bezpečnosti, které je třeba posuzovat samostatně. Jedná se o korporátní nástroj s demokratickým účelem, který neuděluje práva jednotlivcům, ale reguluje původní poskytovatele a profesionální uživatele. Jejím asi nejkontroverznějším opatřením je zacházení s rozpoznáváním obličejů na veřejných místech, které je klasifikováno jako vysoce rizikové, ale není zakázáno.

Amnesty International například tvrdí, že to nejde dostatečně daleko a obecné používání rozpoznávání obličejů by mělo být zakázáno. Nechita řekl: „Zavedli jsme velmi silné demokratické mantinely… V tomto příkladu jsme přidali vrstvu za vrstvou ochranných opatření, abychom se ujistili, že aplikace vyžadují počáteční autorizaci – před schválením případů (např. řekněme zneužití pro trestnou činnost) atd., abychom zajistili, že členské státy nebudou moci používat umělou inteligenci způsobem, který je v rozporu s našimi základními demokratickými hodnotami.

Na základě rizik a připraveno na budoucnost

Založeno na rizicích znamená, že se uplatňuje pouze těmito způsoby,“ řekl Nechita na úvod v Malaze, než zjednodušeně uvedl způsoby, jakými nový zákon o umělé inteligenci klasifikuje rizika. Moderátor Rodrigo Taramona ze španělského technologického časopisu Rewis se zeptal na „pyramidu rizika“ a kategorizoval eskalující hrozbu umělé inteligence od nízké po vysokou úroveň. Nechita odpověděl popisem tří kategorií (nízké, střední a vysoké riziko). Ve skutečnosti však zákon o umělé inteligenci stanoví čtyři úrovně: nepřijatelné riziko, vysoké riziko, omezené riziko a minimální riziko; navíc obsahuje další kategorii pro univerzální umělou inteligenci.

Ze čtyř oficiálních kategorizací rizik jsou aplikace v první skupině („nepřijatelné riziko“) zakázány a aplikace ve druhé („vysoce rizikové“) musí splňovat povinnosti týkající se bezpečnosti a transparentnosti a také projít testováním shody. Na aplikace s omezeným rizikem se vztahují pouze povinnosti týkající se transparentnosti a aplikace s minimálním rizikem nejsou regulovány. Zdá se, že Nechitova zjednodušená třístupňová stupnice, jak byla prezentována v Malaze, spojuje první dvě dohromady. Zmínil „zákazy“ aplikací umělé inteligence, které porušují práva občanů EU, a porovnal přístup Číny.

Řekl: „Prvním pravidlem je prohibice, která je nástrojem poslední záchrany. Není to něco, co by se často používalo v regulaci. Ve skutečnosti však zakazuje používání umělé inteligence způsoby, které my v Evropě neakceptujeme. Nejběžnějším příkladem je čínský systém sociálního hodnocení, kde je každému občanovi přiděleno skóre za to, jak dobrým občanem je, a na základě tohoto skóre získá přístup ke službám nebo ne, a je povýšen (např. v práci) nebo není a v podstatě s ním stát na základě tohoto hodnocení zachází lépe nebo hůře. To Evropa nechce. Je to v rozporu s našimi základními hodnotami.“

Opět byla jasně zdůrazněna „orientace nového nařízení na člověka“. „Převážná část nařízení se vztahuje na systémy umělé inteligence, které mají velmi, velmi významný dopad na základní lidská práva – při rozhodování o zaměstnání, při vymáhání práva, při migraci; v místech, kde… vás používání umělé inteligence může diskriminovat a v konečném důsledku vás dostat do vězení nebo vám odepřít práci nebo sociální dávky. A to všechno jsou vysoce rizikové případy (na vrcholu pyramidy),“ řekl. A to bylo vysvětlení nejvyšší úrovně v třístupňové pyramidě rizik AI, tak jak byla prezentována na veletrhu Digital Enterprise Show.

Ve zbytku času se snažil uklidnit nervy nervózního publika, které možná zvažovalo, jak se vypořádají s právem vývojáři a podniky se sídlem v EU. Nechita řekl: „Středně rizikové případy, které jdou dolů pyramidou, by byly ty systémy umělé inteligence, které mohou manipulovat nebo ovlivňovat lidi – jako jsou například chatboti a deep fakes… Zákon zavazuje (v těchto případech) k určité transparentnosti – takže umělá inteligence říká: „Hele, podívej, já jsem umělá inteligence. Ve skutečnosti nejsem váš psycholog.“ A pak všechno ostatní, asi 80 procent systémů umělé inteligence, je kategorizováno jako nízkorizikové.“

Což znamená, že jejich majitelé a uživatelé se téměř nemusí bát ani příliš přemýšlet. Alespoň takové bylo poselství. „Všichni si myslí, že zákon reguluje veškerou umělou inteligenci. Ne, neregulovali jsme všechno. Všechno ostatní na dně pyramidy, kde nehrozí žádné riziko, nemá absolutně žádná pravidla – žádné povinnosti, které by bylo třeba dodržovat,“ řekl Nechita. K následující odpovědi byl „dotlačen“. Existuje určitě nějaká mírná regulace, o které by měl každý vědět a přemýšlet?  „Ne, myslím, že vůbec žádná. Myslím si, že pokud například nasadíte umělou inteligenci do zemědělství (aby pomohla s optimalizací výnosů), pak nemáte žádné závazky.“

„Rámec je flexibilní, a proto je připraven na budoucnost“, trval na svém Nechita. Nová pravidla se přizpůsobí rychle se měnícímu prostředí umělé inteligence – alespoň do doby, než velké technologické společnosti uzavřou své nekonečné hledání nějakého druhu obecné umělé inteligence (AGI), kdy bude možná nutné zákon revidovat. „Řekl bych, protože jsem zaujatý, že jsme odvedli docela dobrou práci při přípravě pravidel do budoucna,“ řekl. „Zákon má pohyblivé části, které mohou být aktualizovány pomocí „sekundárních právních předpisů“. Což je nudný žargon EU, ale v podstatě to znamená, že nemusí projít celým legislativním procesem.“

Vysvětlil: „EK může aktualizovat systémy vysoce rizikových případů, řekněme, aby něco překategorizovala a odstranila (nebo přidala). Zákon však neříká: „Musíte udělat A, B, C“; říká: „Řekni nám o A, pracuj s námi na B a uvědom si C.“ Je to tedy dynamické a pravidla budou platit, i když se umělá inteligence stane mocnější. Aby to fungovalo, musí existovat spolupráce. Bez ohledu na to, zda budou pravidla revidována, až budeme mít něco futurističtějšího jako v AGI, nebo ne, k tomu se dostaneme, až se k tomu dostaneme. Ale právě teď není třeba nařízení nějakou dobu měnit.”

Regulace a inovace

Nařízení je tedy hotové, poselství zní: Pravidla jsou sepsána. Po pěti letech návrhů a hlasování nastal čas je postupně v příštích třech letech zavést a inovačnímu průmyslu EU pomoci s hospodářskými a sociálními trhy EU, uvedl Nechita. „Je načase zaměřit se méně na to, jak nařízení definovat, a více na to, jak ho implementovat. Máme pravidla. Jsou zaměřena na člověka. Chráníme zdraví, bezpečnost a základní práva. Dobře. Zaměřme se tedy nyní na inovace. Investujme a podpořme startupy a průmysl. Vybudujme evropskou konkurenceschopnost v oblasti umělé inteligence.

„Samotné kontrolní orgány se nyní mohou zaměřit na aplikace umělé inteligence „zaměřené na člověka“ v jiných odvětvích a potýkat se s touto interpretací například v souvislosti s vývojem obranných technologií – „kde tato pravidla nemusí nutně platit, ale stále musíme zajistit, aby technologie byly bezpečné a v souladu s našimi hodnotami,“ poznamenal Nechita. Mezitím EU pracovala na tom, aby byla regulace slučitelná s rozmary malých technologických společností, a zároveň se snažila zabránit velkým technologickým firmám, aby požíraly demokracii.

Nechita vysvětluje: „Vždy vyvstává otázka, jak vyvážit inovace a regulaci. Jak jsem řekl, tento zákon neupravuje vše, co souvisí s umělou inteligencí. Reguluje většinou vysoce rizikové případy. Ale i tam jsme zohlednili potřeby startupů a malých a středních podniků. A jako u každého pravidla i v tomto 450stránkovém nařízení jsme je vzali v úvahu. Pravidla jsou pro ně tedy jiná, mechanismy dodržování předpisů jsou zjednodušeny. Pokud porušíte zákon… pokuta, je pro ně také jiná – takže začínající firma není zničena proto, že nevěděla, jak vyhovět.“

„Celý návrh navíc specifikuje síť „sandboxů“ ve všech členských státech EU, kde mohou startupy testovat své produkty z hlediska shody,“ poznamenal Nechita. EU opět ukazuje, že nová pravidla jsou navržena tak, aby kontrolovala a podporovala nové technologie umělé inteligence v rámci ochrany a podpory občanů EU, a že by měla být považována za zelenou pro inovátory.

Dodržování předpisů a prosazování

Jak bude nový zákon o umělé inteligenci prosazován? „Stanoví vytvoření různých nových institucí na podporu spolupráce mezi členskými státy a na zajištění souladu s nařízením v celém bloku. Patří mezi ně nový úřad pro umělou inteligenci a Evropská rada pro umělou inteligenci (EAIB). Úřad pro umělou inteligenci, který má na starosti „dohled nad velmi velkými hráči,“ řekl Nechita, „kteří budují velmi výkonné systémy na samé hranici umělé inteligence. EAIB se má skládat z jednoho zástupce z každého členského státu a jejím úkolem je její jednotné a účinné uplatňování v celé Unii.“

Tyto dva orgány budou doplněny orgány dohledu na vnitrostátní úrovni, které budou sloučeny do nového poradního fóra a vědecké komise, jež budou poskytovat poradenství z různého podnikatelského a akademického sektoru a z řad občanské společnosti. „Centrální kancelář pro umělou inteligenci je má na starost zajistit, aby systémy umělé inteligence velkých korporací nepředstavovaly systémová rizika, která by se po nasazení šířila do společnosti. Bude spolupracovat s průmyslem a má flexibilní typ vynucování, takže testuje systémy a nařizuje hlášení incidentů,” řekl Nechita.

A pokračoval: „Takže pokud v budoucnu dojde k velkému incidentu v GPT5 nebo GPT6, existuje povinnost to nahlásit Úřadu pro umělou inteligenci – aby se zajistilo, že tyto velmi, velmi velké modely jsou bezpečné. A pak na národní úrovni jde spíše o prosazování pravidel pro umělou inteligenci, která představuje rizika pro zdraví, bezpečnost a základní práva.“

Mezinárodní spolupráce

Taramona, jeho protějšek v Malaze, reagoval na novou strukturu vymáhání práva poznámkou: „Ve Španělsku existuje přísloví: jak postavit brány na venkově?“ Z toho jasně vyplývalo, že celoevropská konzistentnost se snadněji řekne nebo ustaví v nových vládních nástrojích, než udělá. Zeptal se: „Pracujete na tom, abyste to upevnili jako mezinárodní příručku. Jak je to s členskými státy EU? Rozšířila EU oblast působnosti, aby reagovala na spolupráci v oblasti umělé inteligence se zeměmi mimo EU, zejména se Spojeným královstvím a USA?“

Nechita řekl: „Zůstali jsme v úzkém kontaktu s našimi partnery – například s USA a Velkou Británií, z nichž každá zaujala trochu jiný přístup. Například Velká Británie se více zaměřuje na rizika pro národní bezpečnost a zmírňuje existenční rizika. Snažili jsme se koordinovat. Nemáme však stejné regulační tradice. Evropa má jeden právní systém a USA a Velká Británie mají odlišné. Nemůžeme tedy mít úplně stejnou regulaci. Usilovali jsme však, aby tato nařízení fungovala společně. Reakce jsou pochvalné.“

Poukázal také na soulad s Organizací pro hospodářskou spolupráci a rozvoj (OECD) ohledně definice umělé inteligence „zaměřené na člověka“. OECD se také zasazuje o umělou inteligenci, která respektuje lidská práva a demokratické hodnoty. Nechita řekl: „Začali jsme s odlišnými definicemi, a nakonec jsme skončili s velmi, velmi podobnými definicemi – které Američané také začlenili do svého rámce rizik v NIST. Takže nyní máme společný slovník o tom, co máme skutečně na mysli, když mluvíme o umělé inteligenci.

Pokračoval: „Máme Úřad pro umělou inteligenci. Američané založili institut pro bezpečnost umělé inteligence a Britové mají také něco a my jsme se začali propojovat, abychom se ujistili, že všichni správně spolupracujeme. Velký zájem je i v jiných oblastech světa. Latinská Amerika a některé země v Africe a Asii se poohlížejí po evropském a americkém modelu, aby si z obou vzaly to nejlepší. A bude to hodně práce, abychom se ujistili, že jsou všechny kompatibilní.“

Zdroj: rcrwireless.com

Zdroj: RESELLER CHANNEL NETWORK NEWS

Zdroj: ICT NETWORK NEWS