1. avgust 2024 14:40
EU: Stupio na snagu Akt o veštačkoj inteligenciji, prva takva uredba na svetu
podeli vest
BRISEL - Evropski Akt o veštačkoj inteligenciji, prva sveobuhvatna uredba na svetu o veštačkoj inteligenciji, stupio je danas na snagu.
Kako se navodi u saopštenju Evropske komisije, Akt o veštačkoj inteligenciji osmišljen je kako bi se osiguralo da je veštačka inteligencija koja se razvija i koristi u EU pouzdana i da postoje mere za zaštitu osnovnih prava ljudi.
Cilj uredbe je da se uspostavi usklađeno unutrašnje tržište za veštačku inteligenciju u EU, podstakne uvođenje te tehnologije i stvori podsticajno okruženje za inovacije i ulaganja.
Aktom o veštačkoj inteligenciji uvodi se definicija veštačke inteligencije koja je okrenuta ka budućnosti i zasnovana na bezbednosti proizvoda i pristupu zasnovanom na riziku u EU, koji je podeljen u nekoliko kategorija.
Kada je reč o kategoriji minimalnog rizika, njoj pripada većina sistema veštačke inteligencije i oni ne podležu obavezama na osnovu ovog akta zbog njihovog minimalnog rizika po prava i bezbednost građana.
S druge strane, kada je u pitanju kategorija posebnog rizika u pogledu transparentnosti, navodi se da sistemi veštačke inteligencije kao što su čet-botovi moraju jasno da otkriju korisnicima da su u interakciji sa mašinom.
Kako se dodaje, određeni sadržaji generisani veštačkom inteligencijom, uključujući dipfejk (sintetičke medije u kojima je osoba na postojećoj slici ili video snimku zamenjena nečijim likom) moraju da budu označeni kao takvi, a korisnici treba da budu obavešteni kada se koriste sistemi za biometrijsku kategorizaciju ili prepoznavanje emocija.
Osim toga, pružaoci usluga moraće da osmisle sisteme na način da sintetički audio, video, tekstualni i slikovni sadržaj bude označen u mašinski čitljivom formatu i da se može prepoznati kao veštački generisan ili manipulisan.
Što se tiče treće kategorije sistema visoke inteligencije koji su identifikovani kao visokorizični, oni će morati da ispunjavaju stroge zahteve, što uključuje sisteme za smanjenje rizika, visoki kvalitet skupova podataka, evidentiranje aktivnosti, detaljnu dokumentaciju, jasne informacije za korisnike, ljudski nadzor i visok nivo otpornosti, tačnosti i sajber bezbednosti.
Ovakvi visokorizični sistemi veštačke inteligencije uključuju sisteme koji se koriste za regrutovanje ili za procenu da li neko ima pravo da dobije zajam ili da pokreće autonomne robote.
Kada je reč o neprihvatljivom riziku, navodi se da će sistemi veštačke inteligencije koji se smatraju jasnom pretnjom po osnovna prava ljudi biti zabranjeni.
Ovo uključuje sisteme veštačke inteligencije ili aplikacije koje manipulišu ljudskim ponašanjem kako bi zaobišle slobodnu volju korisnika, kao što su igračke koje koriste glasovnu pomoć kojom podstiču opasno ponašanje maloletnika, sistemi koji vladama i kompanijama dozvoljavaju da vrše "društveno vrednovanje" i određene primene prediktivnih policijskih radnji.
Pored toga, biće zabranjene neke primene biometrijskih sistema, kao što su sistemi za prepoznavanje emocija na radnom mestu i neki sistemi za kategorizaciju ljudi ili biometrijsku identifikaciju na daljinu u realnom vremenu na javnim mestima u svrhu srovođenja zakona (uz male izuzetke).
Aktom o veštačkoj inteligenciji uvode se i pravila za takozvane modele veštačke inteligencije opšte namene, koji su vrlo sposobni modeli osmišljeni za obavljanje širokog raspona zadataka kao što je izrada teksta slična ljudskoj.
Države članice EU imaju rok do 2. avgusta 2025. godine da odrede nacionalna nadležna tela koja će nadgledati primenu pravila za sisteme veštačke inteligencije i sprovoditi aktivnosti nadzora tržišta.
Ključno telo za primenu Akta o veštačkoj inteligenciji na nivou EU biće Kancelarija Komisije za veštačku inteligenciju, a ona će sprovoditi i pravila za modele veštačke inteligencije opšte namene.
Uz to, tri savetodavna tela će podržavati primenu pravila.
Većina pravila Akta o veštačkoj inteligencije počeće da se primenjuje 2. avgusta 2026. godine.
Međutim, zabrane sistema veštačke inteligencije za koje se smatra da predstavljaju neprihvatljiv rizik primenjivaće se već nakon šest meseci, dok će se pravila za takozvane modele veštačke inteligencije opšte namjene primenjivati nakon 12 meseci.