Minulý týden zveřejnilo Pew Research Center průzkum, ve kterém většina Američanů – 52 % – uvedla, že jsou více znepokojeni než nadšeni zvýšeným používáním umělé inteligence, včetně obav o osobní soukromí a lidskou kontrolu nad novými technologiemi.
Letošní rozšíření generativních modelů umělé inteligence, jako jsou ChatGPT, Bard a Bing, všechny veřejně dostupné, přineslo umělou inteligenci do popředí. Vlády od Číny přes Brazílii až po Izrael se nyní také snaží přijít na to, jak využít transformační sílu umělé inteligence, přičemž drží na uzdě její nejhorší excesy a vytvářejí pravidla pro její použití v každodenním životě.
Některé země, včetně Izraele a Japonska, zareagovaly na jeho rychlý růst objasněním ochrany stávajících dat, soukromí a autorských práv – v obou případech připravily půdu pro obsah chráněný autorskými právy, který bude použit k výcviku umělé inteligence. Jiní, jako Spojené arabské emiráty, vydali vágní a rozsáhlá prohlášení týkající se strategie umělé inteligence nebo zahájili pracovní skupiny pro osvědčené postupy umělé inteligence a zveřejnili návrhy právních předpisů k veřejnému přezkoumání a projednání.
Ještě jiní zvolili vyčkávací přístup, i když lídři v oboru, včetně OpenAI, tvůrců virálního chatbota ChatGPT, vyzvali k mezinárodní spolupráci v oblasti regulace a inspekce. Generální ředitel společnosti a její dva spoluzakladatelé v květnovém prohlášení varovali před „možností existenčního rizika“ spojeného se superinteligencí, hypotetickou entitou, jejíž intelekt by převyšoval lidskou kognitivní výkonnost.
“Zastavení tohoto by vyžadovalo něco jako globální režim sledování, a ani to není zaručeno, že bude fungovat,” stojí v prohlášení.
Na celém světě však stále existuje jen málo konkrétních zákonů, které jsou specificky zaměřeny na regulaci AI. Zde jsou některé ze způsobů, kterými se zákonodárci v různých zemích snaží řešit problémy související s jeho používáním.
Brazílie má návrh zákona o AI, který je vyvrcholením tří let navrhovaných (a pozastavených) návrhů zákonů na toto téma. Dokument, který byl vydán koncem minulého roku jako součást 900stránkové zprávy senátního výboru pro umělou inteligenci, pečlivě popisuje práva uživatelů, kteří interagují se systémy umělé inteligence, a poskytuje pokyny pro kategorizaci různých typů umělé inteligence na základě rizika, které pro společnost představují.
Zaměření zákona na práva uživatelů klade na dodavatele umělé inteligence povinnost poskytovat uživatelům informace o svých produktech s umělou inteligencí. Uživatelé mají právo vědět, že interagují s AI – ale také právo na vysvětlení toho, jak AI učinila konkrétní rozhodnutí nebo doporučení. Uživatelé mohou také napadnout rozhodnutí AI nebo vyžadovat lidský zásah, zejména pokud je pravděpodobné, že rozhodnutí AI bude mít významný dopad na uživatele, jako jsou systémy související se samořídícími auty, najímáním, hodnocením úvěruschopnosti nebo biometrickou identifikací.
Vývojáři AI jsou také povinni provést hodnocení rizik před uvedením produktu AI na trh. Nejvyšší hodnocení rizika se vztahuje na jakékoli systémy umělé inteligence, které implementují „podprahové“ techniky nebo využívají uživatele způsoby, které jsou škodlivé pro jejich zdraví nebo bezpečnost; tyto jsou zcela zakázány. Návrh zákona o umělé inteligenci také nastiňuje možné „vysokorizikové“ implementace umělé inteligence, včetně umělé inteligence používané mimo jiné ve zdravotnictví, biometrické identifikaci a kreditním hodnocení. Hodnocení rizik pro „vysoce rizikové“ produkty umělé inteligence musí být zveřejněno ve vládní databázi.
Všichni vývojáři AI jsou odpovědní za škody způsobené jejich systémy AI, ačkoli vývojáři vysoce rizikových produktů mají ještě vyšší standard odpovědnosti.
Čína zveřejnila návrh nařízení pro generativní AI a je zjišťování veřejného mínění o nových pravidlech. Na rozdíl od většiny ostatních zemí však čínský návrh uvádí, že generativní umělá inteligence musí odrážet „základní socialistické hodnoty“.
Ve své aktuální iteraci návrh nařízení říká, že vývojáři „jsou odpovědní“ za výstup vytvořený jejich AI, podle překladu dokumentu DigiChina Project Stanfordské univerzity. Existují také omezení pro získávání tréninkových dat; vývojáři jsou právně odpovědní, pokud jejich tréninková data porušují duševní vlastnictví někoho jiného. Nařízení také stanoví, že služby umělé inteligence musí být navrženy tak, aby generovaly pouze „pravdivý a přesný“ obsah.
Tato navrhovaná pravidla vycházejí ze stávající legislativy týkající se deepfakes, algoritmů doporučení a zabezpečení dat, což Číně dává výhodu oproti jiným zemím, které vytvářejí nové zákony od nuly. Internetový regulátor země také v srpnu oznámil omezení technologie rozpoznávání obličejů.
Čína si stanovila dramatické cíle pro svůj technologický a AI průmysl: v „Plánu rozvoje umělé inteligence nové generace“, ambiciózním dokumentu z roku 2017, který zveřejnila čínská vláda, autoři píší, že do roku 2030 budou „teorie, technologie a aplikace čínské Očekává se, že umělá inteligence dosáhne světové úrovně.“
V červnu Evropský parlament odhlasoval přijetí takzvaného „zákona o AI“. Podobně jako v brazilském návrhu zákona, zákon o AI kategorizuje AI třemi způsoby: jako nepřijatelné, vysoké a omezené riziko.
Za nepřijatelné jsou považovány systémy umělé inteligence, které jsou považovány za „hrozbu“ pro společnost. (Evropský parlament nabízí jako příklad „hračky ovládané hlasem, které podporují nebezpečné chování u dětí“.) Tyto typy systémů jsou zakázány zákonem o AI. Vysoce riziková umělá inteligence musí být schválena evropskými úřady před uvedením na trh a také v průběhu celého životního cyklu produktu. Mezi ně patří mimo jiné produkty umělé inteligence související s prosazováním práva, správou hranic a prověřováním zaměstnání.
Systémy umělé inteligence považované za systémy s omezeným rizikem musí být řádně označeny, aby uživatelé mohli činit informovaná rozhodnutí o svých interakcích s umělou inteligencí. Jinak se tyto produkty většinou vyhýbají regulační kontrole.
Zákon ještě musí schválit Evropská rada, ačkoli parlamentní zákonodárci očekávají, že proces bude dokončen ještě letos.
V roce 2022 zveřejnilo izraelské ministerstvo inovací, vědy a technologie návrh politiky regulace AI. Autoři dokumentu jej popisují jako „morální a obchodní kompas pro jakoukoli společnost, organizaci nebo vládní orgán působící v oblasti umělé inteligence“ a zdůrazňují jeho zaměření na „odpovědné inovace“.
Návrh izraelské politiky říká, že vývoj a používání AI musí respektovat „právní stát, základní práva a veřejné zájmy a zejména [maintain] lidská důstojnost a soukromí“. Jinde se vágně uvádí, že „by měly být podniknuty rozumné kroky v souladu s uznávanými profesními koncepty“, aby bylo zajištěno, že používání produktů umělé inteligence je bezpečné.
Obecněji řečeno, návrh politiky podporuje samoregulaci a „měkký“ přístup k vládním zásahům do vývoje AI. Namísto navrhování jednotné celoodvětvové legislativy dokument vybízí regulátory specifické pro dané odvětví, aby tam, kde je to vhodné, zvážili vysoce přizpůsobené zásahy a aby se vláda snažila o kompatibilitu s globálními osvědčenými postupy AI.
V březnu Itálie krátce zakázala ChatGPT s odvoláním na obavy z toho, jak – a kolik – uživatelských dat shromažďoval chatbot.
Od té doby se Itálie zavázala přibližně 33 milionů dolarů na podporu pracovníků, kterým hrozí, že budou pozadu v důsledku digitální transformace – včetně, ale nejen, AI. Zhruba třetina z této částky bude použita na školení pracovníků, jejichž pracovní místa mohou být kvůli automatizaci zastaralá. Zbývající prostředky budou směřovat na výuku digitálních dovedností nezaměstnaných nebo ekonomicky neaktivních lidí v naději, že podnítí jejich vstup na trh práce.
Japonsko, stejně jako Izrael, přijalo k regulaci umělé inteligence přístup „soft law“: země nemá žádné normativní předpisy upravující konkrétní způsoby používání umělé inteligence. Místo toho se Japonsko rozhodlo počkat, jak se AI vyvine, s odkazem na touhu vyhnout se potlačování inovací.
Prozatím se vývojáři umělé inteligence v Japonsku museli spoléhat na přilehlé zákony – například ty, které se týkají ochrany dat – aby sloužily jako pokyny. Například v roce 2018 japonští zákonodárci revidovali zákon o autorských právech země, který umožňuje použití obsahu chráněného autorskými právy pro analýzu dat. Zákonodárci od té doby objasnili, že revize se vztahuje také na tréninková data AI, čímž společnostem AI připravila cestu k trénování svých algoritmů na duševním vlastnictví jiných společností. (Izrael zvolil stejný přístup.)
Regulace není v popředí přístupu každé země k AI.
Například v národní strategii SAE pro umělou inteligenci jsou regulační ambice země uvedeny pouze v několika odstavcích. Stručně řečeno, Rada pro umělou inteligenci a blockchain „přezkoumá národní přístupy k otázkám, jako je správa dat, etika a kybernetická bezpečnost“ a bude sledovat a integrovat globální osvědčené postupy v AI.
Zbytek 46stránkového dokumentu je věnován podpoře rozvoje umělé inteligence ve Spojených arabských emirátech, přilákání talentů na umělou inteligenci a integraci technologie do klíčových odvětví, jako je energetika, cestovní ruch a zdravotnictví. Tato strategie, se může pochlubit shrnutím dokumentu, je v souladu se snahou SAE stát se „nejlepší zemí světa do roku 2071“.