Umělá inteligence není rychlovarná konvice. Nové nařízení EU na ni nebude stačit

Markéta Gregorová

Evropský parlament a Rada EU jednají o regulaci umělé inteligence. Cílem je především zabránit porušování lidských práv. Stávající návrh nařízení však v tomto ohledu zcela selhává.

Potenciální bezpečnostní rizika rychlovarné konvice si představit umíme. V případě umělé inteligence to tak snadné není. Foto WmC

Na návrhu nařízení, jíž by se eliminovala rizika umělé inteligence (AI) zejména v oblasti lidských práv, pracuje Evropská unie již dva roky. Ozývají se hlasy, že se vyjednávání možná nestihnou do konce současného mandátu Parlamentu a Komise v polovině roku 2024, což může čekání na finální znění nařízení značně prodloužit. Pro snahy Evropy nastavit světový standard regulace AI by to bylo velkým selháním, které už poté možná nestihne napravit.

Jednou z oblastí, kde může umělá inteligence zásadně ublížit, je doména soukromí. Téměř každá interakce AI s člověkem hraničí s útokem jeho na soukromí. Už jen proto, že AI systémy zpravidla vyžadují velké množství osobních dat, aby mohly správně fungovat. Tato data se do systému dostanou nejprve během vývojové fáze, kdy se na nich program cvičí. Algoritmus ale sbírá data i v průběhu užívání. Firmy pak tato data přeprodávají dále, především pro marketingové účely.

Umělá inteligence je rovněž hrozbou v oblasti rovnosti a diskriminace. Algoritmické systémy mnohdy pouze kopírují zaběhlé společenské vzorce, které často znevýhodňují některé části společnosti. Algoritmus tak často reprodukuje stereotypy a prohlubuje jejich negativní dopady na celé skupiny obyvatel.

Diskriminační vzorce algoritmus získává zpravidla již ve fázi svého vývoje. Když je tento systém poté využíván k tomu, aby dělal rozhodnutí o kulturně znevýhodněných skupinách lidí, často takové znevýhodnění přejímá, opakuje, a tím legitimizuje. Náprava takového algoritmu je přinejmenším složitá, ne-li nemožná, protože diskriminace stála již u jeho zrodu a provázela ho celým tréninkem.

Umíme vůbec předvídat všechna rizika?

Nový návrh řadí systémy umělé inteligence do několika kategorií podle míry rizika. V první kategorii jsou algoritmy, které představují zásadní hrozbu evropským hodnotám, jako jsou lidská důstojnost nebo demokracie. Takové systémy mají být jednoduše zakázány. Jsou to například algoritmy, které mají za účel manipulovat lidským chováním s cílem podnítit újmu druhým. K druhé kategorii návrh řadí vysoce rizikové systémy. Ty mají být povolené, pokud budou v souladu se striktními bezpečnostními podmínkami. Do poslední kategorie pak spadají systémy s minimálním rizikem, které podléhají nejmenší regulaci.

Jenže co je to „riziko“ v případě umělé inteligence? Rada Evropské unie ho definuje jako „kombinaci pravděpodobnosti výskytu nebezpečí (…) a stupně závažnosti (…) újmy“. Evropské právo ovšem tuto definici spojuje především s odpovědností za škodu způsobenou vadnými výrobky. V případě například domácích spotřebičů dokážeme přibližně odhadnout pravděpodobnost, že k újmě dojde.

To ale u systémů umělé inteligence neplatí, neboť jsou příliš komplexní. Riziko spojené s umělou inteligencí se navíc násobí lidským faktorem — nikdo zkrátka nedokáže odhadnout pravděpodobnost újmy způsobené interakcí člověka s velice složitým systémem. Jenže ani druhou část definice nejde úplně použít. Těžko totiž vyčíslit škodu napáchanou na abstraktních konceptech, jakými jsou lidská důstojnost nebo demokracie.

Nařízení se tedy pokouší vymezit riziko umělé inteligence pomocí nástrojů vytvořených pro klasické produkty. Takové nástroje zpravidla fungují na principu zaškrtávání políček — pokud produkt splní dané kritérium, má danou bezpečnostní zkoušku za splněnou, nehledě na to, že kritérium splnil třeba jen těsně. Takto ale nelze uvažovat o ochraně lidských práv.

V pojetí Evropské unie má každá lidská svoboda své jádro, které musí být chráněno v nejvyšší možné míře ve všech oblastech práva. Nic, co se v Evropské unii děje, nesmí narušit podstatu žádného lidského práva nebo svobody. Ochrana lidských práv a demokracie touto cestou je velmi efektivní. Je proto zvláštní, že se Rada nyní rozhodla od tohoto přístupu upustit.

Dřív než bude pozdě

Připravované nařízení zatím nemá ambice ochránit lidstvo před závažnými hrozbami umělé inteligence. Jak navíc říká Jan Kulveit, v regulaci je nutné jít cestou globálního dohledu nad největšími tréninkovými modely. To však v návrhu zcela chybí. Pokud by největší modely byly registrovány, bude snazší pozorovat jejich vývoj, vyhodnocovat jejich nebezpečnost a stanovit postupy v krizových situacích.

Zákon o umělé inteligenci by však měl být co nejdříve schválen, i za cenu toho, že nebude perfektně pokrývat každou skulinku a variantu vývoje. Legislativní základ pro případ, že nastane neočekávaná událost podle teorie černé labutě — která by nepochybně změnila uvažování o tom, co je potřeba regulovat a co ne — výrazně urychlí naši reakci, pokud nastane. Zaspat desítky let jako v případě klimatické změny se nám nemusí vyplatit.

Poznámka redakce: Text původně uváděl směrnice EU, ve skutečnosti se jedná o nařízení. Text byl proto upraven. Autorce i čtenářům se omlouváme.