Technologie a společnost
EU chystá legislativu proti excesům umělé inteligence (I)
Evropská unie připravuje nová pravidla, která mají nastavit mantinely pro tvůrce a uživatele systémů umělé inteligence a případně i usnadnit žaloby za způsobení případné škody. Už i současné debaty o nich mohou ovlivnit digitální průmysl, zákaznické firmy, které používají nebo chtějí používat moderní technologie, i státní úřady a bezpečnostní sbory. A samozřejmě i úplně běžné lidi.
Nářků nad umělou inteligencí není málo. Policejní systémy na rozpoznávání obličejů příležitostně selhávají, což vede k zadržení nesprávných osob. Častěji se chyby projevují u lidí černé pleti, takže jsou autoři softwarů obviňováni z rasismu. Velké společnosti nechávají přihlášky uchazečů o práci nejdříve posoudit umělé inteligenci, která podle použitých slov a obratů vyhodnotí, zda se má přihláška vyřadit, nebo předat jako vhodná lidským posuzovatelům. Výhrady jsou, že snáze projde konformní uchazeč než kreativní osobnost.
A umělá inteligence vás může i úplně zničit, protože se spletla. Ukázal to děsivý příklad z Nizozemska, kde finanční úřady využily samoučící se algoritmus (ten se na základě dřívějších dat sám učí posuzovat nové případy, aniž by jeho tvůrci věděli, podle čeho vlastně postupuje). Jak popisuje evropský server Politico, algoritmus měl vytipovat rizikové profily a odhalit podvody s přídavky na děti. A on skutečně „objevil“ rodiče, kteří brali neoprávněné příspěvky. Úřady je pak na základě pouhého podezření pokutovaly a vymáhaly peníze zpět.
Jenže stanovené dluhy byly často přemrštěné. Desítky tisíc rodin, zejména chudších nebo z minoritních skupin, upadlo kvůli tomu do chudoby. Neměly nárok na restrukturalizaci dluhů, nemohly dostat splátkový kalendář. Přes tisíc dětí bylo odebráno do pěstounské péče, několik neprávem obviněných spáchalo sebevraždu. Trvalo šest let, než úřady přiznaly chybu.
O dalších problémech si můžete přečíst v našem článku Kde hledat světlou budoucnost umělé inteligence?.
Globální regulace
Evropská unie tedy připravuje dvě regulace, které mají obyvatele před přehmaty způsobené umělou inteligencí chránit.
První je Akt o umělé inteligenci a druhou Direktiva o odpovědnosti za umělou inteligenci. Obě právní úpravy by měly být schváleny tak, aby začaly platit víceméně současně. Bude ovšem trvat ještě nejméně rok, než bude hotové konečné znění, a ještě několik let, než vstoupí v platnost a firmy se jím budou muset řídit. Pro srovnání: vyjednávání o ochraně osobních údajů (GDPR) trvalo více než čtyři roky a dalších šest let uběhlo, než vstoupilo v platnost.
Jak hodnotí Melissa Heikkiläová, reportérka, která se problematice umělé inteligence soustavně věnuje v periodiku MIT Technology Review, Akt o umělé inteligenci by se mohl stát prvním zákonem na světě, který se snaží omezit možné škody způsobené umělou inteligencí regulací celého odvětví, nikoli pouze řešením dílčích otázek. Pokud Evropská unie uspěje, stanoví takto nový globální standard pro dohled nad umělou inteligencí na celém světě.
Například odborníci ze Spojených států sledují evropské dění pozorně jednak pro inspiraci, ale pak také proto, že pravidla pro velký evropský trh mohou ovlivnit i americké firmy – přestože EU momentálně není největším hráčem v byznysu s umělou inteligencí.
→ Čtěte také: Ve využití umělé inteligence vedou USA, následuje Čína a EU
Kontrola „vysoce rizikových“ aktivit
Podle prvního návrhu, o němž momentálně diskutují poslanci Evropského parlamentu, pracovníci Evropské komise, zástupci softwarového průmyslu, představitelé členských států EU i organizací na ochranu občanských svobod, by regulace vyžadovala dodatečné kontroly „vysoce rizikových“ způsobů využití umělé inteligence, které mají největší potenciál poškodit lidi.
Mohly by to být systémy používané pro hodnocení školních zkoušek, pro nábor zaměstnanců nebo pro pomoc soudcům při rozhodování. První návrh právní úpravy zahrnuje také zákazy použití umělé inteligence, která jsou považována za „nepřijatelná“, například hodnocení lidí na základě jejich důvěryhodnosti stanovené umělou inteligencí.
Návrh regulace předpokládá rovněž omezení pro policejní sbory i pro soukromé společnosti při používání systémů pro rozpoznávání obličejů na veřejných místech, s odůvodněním, že tato technologie umožňuje hromadné sledování.
Podle současných představ by lidé, kteří se s umělou inteligencí setkají, měli být upozorněni, když narazí na deepfake (obrázek či video, které kvůli zásahu umělé inteligence falešně zobrazují osobu, jež na snímku či videu původně vůbec nebyla; může se používat z reklamních důvodů, ale také jako falešná zpráva nebo rovnou padělaný kompromitující materiál).
Zákazníci by se měli dozvědět i to, že se třeba v prodejně setkají s biometrickým rozpoznávacím systémem, který je může rozpoznat a informovat personál o prodejních strategiích, jež na daného klienta už dříve zabraly. Anebo by člověk měl být informován, pokud je v kontaktu se systémem, který rozpoznává jeho emoce a dokáže podle nich pohotově a cíleně ladit jeho ovlivňování – ať už reklamní, nebo třeba politické.
V Evropském parlamentu se rovněž prosazuje myšlenka zákazu prediktivních policejních systémů. Tedy takových, které využívají umělou inteligenci k analýze rozsáhlých souborů dat v zájmu preventivního nasazení policie do oblastí náchylných ke kriminalitě nebo ke snaze předvídat potenciální trestnou činnost osob. Tyto systémy jsou velmi kontroverzní a podle kritiků jsou často rasistické a netransparentní.
Výrazné omezení technologie
Pokud tyto návrhy v Evropské unii projdou, bude to jedno z nejsilnějších omezení této technologie. Pravidla omezující systémy pro rozpoznávání obličejů už existují třeba v San Francisku nebo americkém státě Virginie. Ale zákaz schválený v EU by se vztahoval na 27 členských zemí s téměř půl miliardou obyvatel.
Teoreticky by tak měli být Evropané chráněni před nejhoršími vedlejšími účinky umělé inteligence díky tomu, že používané aplikace by musely splnit určené hranice odpovědnosti a podléhaly by kontrole.
Byrokratický propletenec, nebo užitečný nástroj?
Vnucuje se samozřejmě otázka, co vlastně z regulace vzejde po složitém kličkování bruselskou a štrasburskou mašinérií a při schvalování jednotlivými členskými státy. Může to být nepřehledný byrokratický propletenec komplikující život digitálnímu průmyslu i běžným lidem. Anebo – i to se může stát – může jít o moderní právní nástroj pomáhající rozumnému rozvoji umělé inteligence.
Faktem ovšem je, že některé požadavky Aktu o umělé inteligenci je v současné době technicky nemožné splnit. První návrh právní úpravy vyžaduje, aby soubory dat, které se používají k trénování systémů umělé inteligence, neobsahovaly chyby. A také to, aby lidé, kteří umělou inteligenci používají, byli schopni „plně pochopit“, jak systémy umělé inteligence fungují. Jenže datové soubory pro výcvik umělé inteligence jsou rozsáhlé a kontrola člověkem by vyžadovala tisíce hodin práce, pokud by vůbec bylo možné něco takového ověřit. A dnešní neuronové sítě jsou tak složité, že ani jejich tvůrci plně nechápou, jak ke svým závěrům docházejí.
Technologickým společnostem se také hodně nelíbí požadavky, aby za účelem vymáhání práva poskytly externím auditorům nebo regulačním orgánům přístup ke svému zdrojovému kódu a algoritmům.
Ten chce to a ten zas tohle
Velké spory jsou rovněž o to, jestli by měl Akt o umělé inteligenci přímo zakázat strojové rozpoznávání obličejů. Členské země EU zpravidla mají nelibý pocit, že se jim Brusel snaží diktovat, jak mají řešit otázky národní bezpečnosti nebo vymáhání práva. Takže například Francie chce stanovit výjimky pro používání rozpoznávání obličejů za účelem ochrany národní bezpečnosti. Naproti tomu současná německá vláda podporuje úplný zákaz rozpoznávání obličejů na veřejných místech.
A co to jsou ty „vysoce rizikové“ druhy umělé inteligence? Návrh Aktu o umělé inteligenci obsahuje seznam, který sahá od testů na odhalování lži až po systémy používané k přidělování sociálních dávek. Jak to tak bývá, průmysl spíše argumentuje, že rozsáhlé regulace zpomalí inovace, zatímco ochránci občanských práv se obávají, že současný návrh neudělá dost pro ochranu lidí před vážnou újmou.
Organizacím, které nebudou dodržovat předpisy, hrozí pokuty až do výše 30 milionů eur nebo v případě firem až do výše 6 % celkových celosvětových ročních příjmů.
Žaloby o odškodnění
Kromě popsaného Aktu o umělé inteligenci však v Bruselu vzniká ještě významná legislativa o umělé inteligenci. Má umožnit firmám a občanům, kteří mají pocit, že jim umělá inteligence způsobila škodu, aby žalovali její tvůrce o odškodnění.
Jejím cílem prý nemá být snaha o zvýšení počtu žalob, ale spíše motivace digitálních firem, aby si lépe pohlídaly, co jejich umělá inteligence udělá. Rozbor této regulace nabízíme v závěrečné části naší analýzy.
Grafika: Siemens
NEJZAJÍMAVĚJŠÍ ČLÁNKY
Focus Automatizace Digitalizace Technologie a společnost |