EU Parlament potvrdio Akt o umjetnoj inteligenciji

AI_ACT

Zastupnici Europskog parlamenta potvrdili su 21. svibnja 2024. godine Akt o umjetnoj inteligenciji.
Akt kojim se jamči sigurnost i zaštitu temeljnih prava te istodobno potiče inovacije.

Akt o umjetnoj inteligenciji prva je obvezujuća uredba u svijetu koja je posebno usmjerena na umjetnu inteligenciju.

Cilj joj je zaštititi ljudska prava, demokraciju, vladavinu prava i okolišnu održivost od visokorizične umjetne inteligencije, a istodobno poticati inovacije i osigurati Europi ulogu predvodnika u tom području. Pravila za umjetnu inteligenciju utvrđena su na temelju njezinih potencijalnih rizika i razine učinka.

Općenito, akt EU-a o umjetnoj inteligenciji važan je korak u upravljanju umjetnom inteligencijom kojim se nastoje uspostaviti globalni standardi za regulaciju umjetne inteligencije te osigurati razvoj i donošenje sigurnih i pouzdanih AI systema.

Zakon dijeli sustave u nekoliko kategorija ovisno o riziku i namjeni.

Kategorizacija prema riziku:

Niski rizik: jednostavni sustavi koji ne donose značajne odluke i nemaju velike posljedice (chatbotovi za korisničku podršku)

Srednji rizik: sustavi koji donose važne odluke, ali s ograničenim posljedicama. (sustavi za preporuke, ocjene ili analizu podataka)

Visoki rizik: odnosi se na primjenu AI sustava koja može imati ozbiljne posljedice za pojedince, društvo ili okoliš.  (medicinski dijagnostički sustavi, autonomni automobili, financijski alati i vojne aplikacije)

Kritični rizik: sustavi koji utječu na ljudske živote i okoliš (sustavi za upravljanje letovima, nuklearne elektrane i sigurnosne aplikacije)

Situacije koje se smatraju visokim rizikom:

– Zdravstveni sustav: AI sustavi koji donose dijagnoze, predviđaju tijek bolesti ili upravljaju terapijom s obzirom na to da mogu, ako su netočni, imati ozbiljne posljedice

– Transport: Sustavi autonomne vožnje, kontrole prometa ili upravljanja letovima imaju visok rizik jer su povezani s ljudskim životima i sigurnošću.

– Sigurnost: AI sustavi koji se koriste za kriptografiju, nadzor ili vojne svrhe mogu imati ozbiljne posljedice ako su ranjivi na napade ili pogreške.

– Financije: AI sustavi za trgovanje, upravljanje portfeljima ili procjenu rizika mogu uzrokovati velike financijske gubitke.

– Biometrijska identifikacija: Sustavi za prepoznavanje lica, otiska prsta ili drugih biometrijskih podataka mogu ozbiljno narušiti privatnost i sigurnost.

Zahtjevi koje moraju zadovoljiti visokorizični sustavi:

– Sustav upravljanja rizicima: Developeri i korisnici visokorizičnih AI sustava moraju uspostaviti pouzdan sustav upravljanja rizicima. Ovaj sustav pomaže u prepoznavanju, procjeni i ublažavanju potencijalnih rizika povezanih s AI sustavom.

– Upravljanje podacima: visokorizični AI sustavi trebali bi se pridržavati odgovarajućih praksi upravljanja podacima. To uključuje odgovorno postupanje s podacima, osiguravanje privatnosti i održavanje kvalitete čuvanja podataka.

– Tehnička dokumentacija: programeri moraju izraditi sveobuhvatnu tehničku dokumentaciju za AI sustav. Ta bi dokumentacija trebala obuhvaćati aspekte kao što su arhitektura sustava, korišteni algoritmi i izvori podataka.

– Vođenje evidencije: visokorizični AI sustavi moraju održavati automatske sustave vođenja evidencije. Ovi zapisi pomažu u praćenju ponašanja sustava, odluka i svih incidenata do kojih dođe tijekom implementacije.

– Osiguravanje transparentnosti i informacija: Postavljanje visokorizičnih AI sustava mora osigurati transparentnost pružanjem jasnih informacija korisnicima. To uključuje objašnjenje načina rada sustava, njegovih ograničenja i mogućih pristranosti

– Ljudski nadzor: visokorizični AI sustavi trebali bi jamčiti odgovarajuću razinu ljudskog nadzora. Ljudska intervencija ključna je za praćenje učinkovitosti sustava, rješavanje pogrešaka i sprečavanje štetnih ishoda.

– Točnost, robusnost i kibersigurnost: razvojni programeri moraju osigurati odgovarajuću razinu točnosti, robusnosti i kibersigurnosti za visokorizične sustave umjetne inteligencije. To uključuje rigorozno testiranje, validaciju i kontinuirano praćenje.

Također, organizacije koje razvijaju ili koriste AI sustave moraju se pridržavati obveza kao što su transparentnost, testiranje, dokumentiranje i praćenje sustava što ujedno i smjernice za etičku upotrebu. Ključne točke za etičku upotrebu su:

– Transparentnost i odgovornost

– Nediskriminacija

– Sigurnost i privatnost

– Ljudska kontrola

– Etička procjena

Zakon zabranjuje uporabu AI za diskriminaciju, nadzor i manipulaciju. Također, postavlja stroge uvjete za biometrijsku identifikaciju.

Zakonom su također, propisane i stroge kazne za prekršitelje. Iznosi novčanih kazni se razlikuju ovisno o težini i prirodi samog prekršaja. Teški prekršaji (kod npr. korištenja zabranjenih AI aplikacija) mogu iznositi i nekoliko milijuna eura ili značajan postotak globalnog godišnjeg prometa prekršitelja.

Kazne za kršenje zakona mogu se izreći pružateljima, implementatorima, uvoznicima, distributerima i odgovornim tijelima.

Prekršaji mogu uključivati kršenje obaveza u vezi s upravljanjem rizikom, transparentnošću, tehničkom dokumentacijom i ljudskim nadzorom.

Primjena kazni u državama članicama EU ovisit će od njihovih nacionalnih zakonodavstava. Zakon stupa na snagu dvadeset dana nakon objave, a sama Uredba počet će se primjenjivati dvije godine od stupanja na snagu s pojedinim iznimkama za određene odredbe zakona.

Kako bi se osigurala ispravna provedba novog zakona, predviđa se uspostava nekoliko tijela poput ureda za umjetnu inteligenciju unutar Komisije, znanstvenog panela neovisnih stručnjaka za potporu provedbenim aktivnostima i drugih.

Zakon o AI & GDPR – Boost

Zakon o umjetnoj inteligenciji (AI Act) – Boost

Newsletter

Pretplatite se na naš Newsletter!

Izrada internetske stranice sufinancirana je sredstvima pomoći Operativnog programa „Konkurentnost i kohezija“ iz Europskog fonda za regionalni razvoj. Saznaj više

Krajnji primatelj financijskog instrumenta sufinanciranog iz Europskog fonda za regionalni razvoj u sklopu Operativnog programa Konkurentnost i kohezija 2014.-2020.”.