S rostoucí popularitou umělé inteligence, která začala být vnímána zejména po zpřístupnění nástroje ChatGPT od společnosti OpenAI, se začalo o to více diskutovat o potenciálních bezpečnostních rizicích. Situací se začala ve velkém zabývat i Evropská Unie a zástupci členských států se dnes shodli na první regulaci týkající se umělé inteligence.

Orgány EU se problematikou zabývají už delší dobu. V dubnu roku 2021 byl odhalen první unijní regulační rámec, jehož předmětem bylo, aby se AI modely klasifikovaly podle rizika, které mohou představovat pro uživatele. Nedávno se k tématu umělé inteligence vyjádřila také viceprezidentka Evropské komise Věra Jourová, která naznačila, že by se obsah vytvořený umělou inteligencí měl začít povinně označovat.

BOJ ZA BEZPEČNOST A KLASIFIKACE PODLE RIZIKA

Dnes představený „Akt EU o umělé inteligenci“ má za cíl zajistit bezpečnost, transparentnost a sledovatelnost AI systémů používaných na území Evropské unie. Zároveň se má zabývat otázkou diskriminace a šetrnosti k životnímu prostředí. „Na systémy umělé inteligence by měli dohlížet lidé, nikoliv automatizace, aby se předešlo škodlivým následků,“ vysvětluje Evropský parlament v oficiální zprávě.

„Parlament chce rovněž stanovit technologicky neutrální a jednotnou definici umělé inteligence, kterou by bylo možné použít pro budoucí systémy umělé inteligence,“ dodává.

Akt o AI rozděluje systémy umělé inteligence do čtyř kategorií. Mezi modely s „nepřijatelným rizikem“ patří služby, které jsou schopny kognitivní manipulace s chováním lidí nebo specificky zranitelných skupin, přidělování sociálního kreditu na základě různých parametrů nebo biometrické analýzy. Skupina „vysoce rizikových“ systémů pak bude zahrnovat nástroje, které mohou mít negativní dopad na bezpečnost či základní práva.

JAK NA TOM BUDE CHATGPT?

Z pohledu běžných spotřebitelů nás ale bude pravděpodobně nejvíce zajímat, jak bude nově nakládáno s obsahem, který byl vytvořen pomocí nástrojů typu ChatGPT nebo Midjourney. Europoslanci se shodli na tom, že model AI, který tyto služby pohání, musí být navržen tak, aby nebyl schopen generovat jakkoliv ilegální obsah. Cokoliv, co z něj vyleze, zároveň musí být transparentně označeno. Provozovatelé jako OpenAI pak budou nuceni zveřejňovat souhrn dat, jež byla využita při trénování modelů a jsou chráněna autorskými právy.

„Zatímco velké technologické společnosti bijí na poplach kvůli svým vlastním výtvorům, Evropa přikročila k návrhu konkrétní reakce na rizika, která umělá inteligence začíná představovat,“ prohlásil Brando Benifei, spoluzpravodaj návrhu zákona.

OBJEVUJÍ SE PRVNÍ REAKCE

K nově odsouhlaseným opatřením se už vyjádřili někteří zástupci technologických kolosů. Microsoft, který ve velkém podporuje OpenAI, a tudíž je ve světě AI velkým hráčem, podle agentury Reuters rozhodnutí uvítal, ale očekává upřesnění legislativy. Stejný postoj má také IBM.

„Jsme přesvědčeni, že umělá inteligence vyžaduje legislativní ochranné prvky, úsilí o sladění na mezinárodní úrovni a smysluplné dobrovolné kroky společností, které vyvíjejí a nasazují umělou inteligenci,“ uvedl mluvčí Microsoftu.