Umělá inteligence je všude a představuje obrovský problém pro ty, kdo ji musí sledovat a regulovat. V jakém bodě vývoje a nasazení by měly vládní agentury zasáhnout? Mohou se velká průmyslová odvětví, která používají umělou inteligenci, sama ovládat? Umožní nám tyto společnosti nahlédnout pod pokličku jejich aplikací? Můžeme umělou inteligenci vyvíjet udržitelně, eticky ji testovat a nasazovat zodpovědně?
Takové záležitosti nemohou připadnout jedinému orgánu nebo typu dohledu. Umělá inteligence se používá jedním způsobem k vytvoření chatbota, jiným způsobem se používá ke skenování lidského těla pro potenciální cíle drog a ještě jiným způsobem se používá k ovládání samořídícího auta. A každý má stejný potenciál ublížit jako pomoci. Doporučujeme, aby se všechny americké agentury rychle spojily a dokončily meziagenturní pravidla, aby byla zajištěna bezpečnost těchto aplikací; zároveň musí vypracovat konkrétní doporučení, která se vztahují na odvětví spadající do jejich působnosti.
Bez dostatečného dohledu bude umělá inteligence nadále zaujatá, poskytovat špatné informace, chybět lékařské diagnózy a způsobovat dopravní nehody a smrtelné úrazy.
Existuje mnoho pozoruhodných a prospěšných využití AI, včetně zmírňování změny klimatu, porozumění virům s pandemickým potenciálem, řešení problému skládání proteinů a identifikace nezákonných drog. Ale výstup produktu umělé inteligence je jen tak dobrý jako jeho vstupy, a v tom spočívá velká část regulačního problému.
Umělá inteligence je v zásadě výpočetní proces, který hledá vzory nebo podobnosti v obrovském množství dat, která jsou do něj přiváděna. Když je položena otázka nebo žádost o vyřešení problému, program použije tyto vzorce nebo podobnosti k odpovědi. Když tedy požádáte program, jako je ChatGPT, aby napsal báseň ve stylu Edgara Allana Poea, nemusí přemítat slabý a unavený. Styl může odvodit ze všech dostupných Poeových prací, stejně jako z kritiky, obdivu a parodie Poea, která již byla prezentována. A i když systém nemá vypovídající srdce, zjevně se učí.
Právě teď máme málo způsobů, jak zjistit, jaké informace krmí aplikaci AI, odkud pocházejí, jak jsou dobré a zda jsou reprezentativní. Podle současných předpisů USA nejsou společnosti povinny nikomu sdělovat kód nebo školicí materiály, které používají k vytváření svých aplikací. Umělci, spisovatelé a softwaroví inženýři žalují některé společnosti stojící za populárními generativními programy umělé inteligence za přeměnu původní práce na tréninková data, aniž by kompenzovali nebo dokonce uznali lidské tvůrce těchto obrázků, slov a kódů. Toto je problém autorských práv.
Pak je tu problém černé skříňky – ani vývojáři přesně nevědí, jak jejich produkty používají tréninková data k rozhodování. Když dostanete špatnou diagnózu, můžete se zeptat lékaře proč, ale nemůžete se zeptat AI. Toto je bezpečnostní problém.
Pokud vám bude zamítnuta žádost o půjčku na bydlení nebo se o vás neuvažuje o práci, která projde automatizovaným screeningem, nebudete moci požádat o AI. Toto je otázka spravedlnosti.
Před uvolněním svých produktů společnostem nebo veřejnosti je tvůrci umělé inteligence otestují za kontrolovaných okolností, aby zjistili, zda poskytují správnou diagnózu nebo učiní nejlepší rozhodnutí týkající se služeb zákazníkům. Ale mnoho z těchto testů nebere v úvahu složitost skutečného světa. To je otázka efektivity.
A jakmile bude umělá inteligence v reálném světě, kdo je zodpovědný? ChatGPT vytváří náhodné odpovědi na věci. Má tak říkajíc halucinace. DALL-E nám umožňuje vytvářet obrázky pomocí výzev, ale co když je obrázek falešný a pomlouvačný? Je zodpovědná OpenAI, společnost, která tyto dva produkty vyrobila, nebo je to osoba, která ji použila k výrobě falešného? Existují také značné obavy o soukromí. Jakmile někdo zadá data do programu, komu patří? Lze to zpětně vysledovat k uživateli? Kdo vlastní informace, které poskytujete chatbotovi, aby vyřešil daný problém? Patří mezi etické problémy.
Generální ředitel OpenAI Sam Altman řekl Kongresu, že AI musí být regulována, protože může být ze své podstaty nebezpečná. Skupina technologů požadovala moratorium na vývoj nových produktů, které jsou výkonnější než ChatGPT, dokud budou všechny tyto problémy vyřešeny (tato moratoria nejsou nová – biologové to udělali v 70. letech, aby zabránili kouskům DNA organismu v pohybu do jiného, což staly základem molekulární biologie a chápání nemocí). Geoffrey Hinton, kterému je všeobecně připisováno, že položil základy moderním technikám strojového učení, se také obává, jak se umělá inteligence rozrostla.
Čína se snaží regulovat AI se zaměřením na černou skříňku a bezpečnostní problémy, ale někteří vidí snahu země jako způsob, jak si udržet vládní autoritu. Evropská unie přistupuje k regulaci umělé inteligence jako často v záležitostech vládních zásahů: prostřednictvím hodnocení rizik a rámce na prvním místě bezpečnosti. Bílý dům nabídl plán, jak by společnosti a výzkumníci měli přistupovat k vývoji AI – ale bude se někdo řídit jeho pokyny?
Nedávno Lina Khan, šéfka Federal Trade Commission, uvedla, že na základě minulé práce na ochraně internetu by FTC mohla dohlížet na bezpečnost spotřebitelů a efektivitu AI. Agentura nyní vyšetřuje nepřesnosti ChatGPT. Ale to nestačí. Po celá léta je umělá inteligence vetkaná do struktury našich životů prostřednictvím zákaznických služeb a Alexy a Siri. AI přichází na lékařské produkty. Už se používá v politických reklamách k ovlivnění demokracie. Zatímco v soudním systému bojujeme s regulačními orgány federálních agentur, AI se rychle stává dalším a možná největším testovacím případem. Doufáme, že federální dohled umožní této nové technologii bezpečně a spravedlivě prosperovat.