Technologie a společnost
EU chystá legislativu proti excesům umělé inteligence (II)
Získal člověk či podnik dojem, že jej nějak poškodila umělá inteligence? Evropská unie připravuje pravidla, která umožní žalobu o náhradu škody. Jejím cílem prý nemá být nárůst soudních sporů, ale hlavně motivace pro digitální firmy, aby si dobře pohlídaly, co může jejich produkt způsobit.
Před pár dny navržený text Direktivy o odpovědnosti za umělou inteligenci navazuje na návrh Aktu o umělé inteligenci, který jsme vám představili v článku EU chystá legislativu proti excesům umělé inteligence (I).
Podle předpokladů by oba právní akty měly být schváleny příští rok s tím, že v platnost vstoupí několik let poté – přesnější údaj nelze v kontextu složitého schvalování evropské legislativy na úrovni orgánů EU a členských zemí odhadnout.
Akt o umělé inteligenci má zajistit dodatečné kontroly „vysoce rizikových“ způsobů využití této technologie, které nejvíce hrozí tím, že poškodí lidi. Patří sem například systémy zasahující do občanských svobod či zákaznických práv, včetně programů pro policejní práci, pro přijímání nových zaměstnanců či pro spravování sociálních sítí.
Právo na odškodné
Nová direktiva o odpovědnosti by měla dát lidem a společnostem jasné právo žalovat o náhradu škody, jestliže jim systém umělé inteligence ublíží. Cílem je pohnat k odpovědnosti vývojáře, výrobce a uživatele těchto technologií. A také po nich požadovat vysvětlení, jak byly jejich systémy umělé inteligence vytvořeny a co se naučily v rámci samoučení. Technologické společnosti, které pravidla nedodrží, riskují hromadné žaloby v celé Evropské unii.
Například uchazeči o zaměstnání, kteří prokážou, že je systém umělé inteligence pro prověřování životopisů diskriminoval, mohou požádat soud, aby donutil společnost zabývající se umělou inteligencí poskytnout jim přístup k informacím o systému, aby mohli identifikovat odpovědné osoby a zjistit, co bylo špatně. Vyzbrojeni těmito informacemi mohou podat žalobu.
Zajímavým příběhem by mohla být potenciální žaloba na online vyhledávače nebo na správce sociálních sítí, které svým uživatelům předkládají vyhledané informace vždy po nějakém filtrování či seřazení podle ne úplně jasných kritérií. Tím ovšem mohou uživatele zmást a navést k vytvoření zcela chybných závěrů.
Nadměrné? Nebo nedostatečné?
Jak shrnuje Melissa Heikkiläová, reportérka, která se problematice umělé inteligence soustavně věnuje v periodiku MIT Technology Review, návrh budou pozměňovat poslanci Evropského parlamentu a vlády členských států EU a pravděpodobně bude čelit intenzivnímu lobbingu ze strany technologických společností. Ty tvrdí, že taková pravidla by mohla zničit inovační a konkurenční prostředí.
Oproti tomu spotřebitelští aktivisté tvrdí, že návrh nezachází dostatečně daleko, aby uživatele dobře ochránil.
A v tuto chvíli ani není dostatečně jasné, jak by měl postup podle připravované legislativy v praxi vypadat. Nicméně se dá čekat, že tato nová legislativa na významném evropském trhu ovlivní způsob regulace umělé inteligence po celém světě.
Odlišné pohledy
„Už návrh legislativy by mohl mít nepříznivý dopad zejména na vývoj softwaru,“ říká Mathilde Adjutorová, manažerka pro evropskou politiku technologické lobbistické skupiny CCIA, která zastupuje společnosti včetně Googlu, Amazonu a Uberu. „Podle nových pravidel hrozí, že vývojáři budou zodpovědní nejen za chyby v softwaru, ale také za potenciální dopad softwaru na duševní zdraví uživatelů,“ opatrně formuluje Adjutorová.
Některé organizace na ochranu práv spotřebitelů a aktivisté však tvrdí, že návrh nejde dostatečně daleko a nastavuje příliš vysokou laťku pro spotřebitele, kteří chtějí vznášet nároky.
Ursula Pachlová, zástupkyně generálního ředitele Evropské spotřebitelské organizace, říká, že návrh je skutečným zklamáním, protože klade na spotřebitele odpovědnost za prokázání, že jim systém umělé inteligence ublížil nebo že vývojář umělé inteligence pochybil.
Imogen Parkerová, zástupkyně ředitele v Institutu Ady Lovelaceové, výzkumném ústavu pro umělou inteligenci, říká, že současná představa přesouvá pravomoci od firem zpět ke spotřebitelům. Považuje to za obzvláště důležitou korekci vzhledem k významu umělé inteligence a jejím dopadům.
Některé organizace na ochranu práv spotřebitelů a aktivisté však tvrdí, že návrh nejde dostatečně daleko a nastavuje příliš vysokou laťku pro spotřebitele, kteří chtějí vznášet nároky.
Ursula Pachlová, zástupkyně generálního ředitele Evropské spotřebitelské organizace, říká, že návrh je skutečným zklamáním, protože klade na spotřebitele odpovědnost za prokázání, že jim systém umělé inteligence ublížil nebo že vývojář umělé inteligence pochybil.
„Ve světě velmi složitých a nepřehledných ‚černých skříněk‘ systémů umělé inteligence bude pro spotřebitele prakticky nemožné nová pravidla využít,“ soudí Ursula Pachlová. Podle ní bude například velmi obtížné prokázat, že něčí rasovou diskriminaci zavinilo nastavení systému hodnocení žadatelů o úvěr.
„Návrh legislativy nezohledňuje ani nepřímé škody způsobené systémy umělé inteligence,“ uvádí Claudia Prettnerová, zástupkyně EU v neziskové organizaci Institut pro budoucnost života, která se zaměřuje na existenční rizika umělé inteligence. „Systémy umělé inteligence jsou často vytvářeny pro určitý účel, ale pak vedou k neočekávaným škodám v jiné oblasti. Algoritmy sociálních médií byly například vytvořeny tak, aby maximalizovaly čas strávený na platformách, ale neúmyslně posílily polarizující obsah,“ říká Prettnerová.
Tučná léta pro právníky?
Tak náročné požadavky nemůže připravovaná Direktiva o odpovědnosti za umělou inteligenci prakticky splnit. Některé potenciální chyby umělé inteligence, dejme tomu špatně navržená konstrukce nového stroje, se dokázat dají. Ale jak prokázat, že algoritmus vybral mezi zájemci o práci toho pravého a zavrhl ty opravdu nevhodné uchazeče?
Tvůrcům umělé inteligence mohou nastat těžké časy. Zato právníci se pravděpodobně mohou těšit na tučná léta.
Foto: Siemens
NEJZAJÍMAVĚJŠÍ ČLÁNKY
Focus Automatizace Digitalizace Technologie a společnost |