Nikola Milosavljević*

Originalni naučni članak

UDK: 004.8:34

doi: 10.46793/GP.1402.23M

PRAVNO REGULISANJE ODLUČIVANJA VEŠTAČKE INTELIGENCIJE**

Rad primljen: 13. 04. 2023.

Rad prihvaćen za objavljivanje: 02. 10. 2023.

 

Kapaciteti veštačke inteligencije otvaraju nove mogućnosti kada je reč o unapređivanju rada državnih organa. Iako je primena ovih sistema u radu državnih organa uveliko počela, još uvek nema potpuno automatskog odlučivanja od strane veštačke inteligencije. Autor u radu ispituje na koji način je postojećim propisima regulisano pitanje automatskog odlučivanja veštačke inteligencije, posebno u domenu zaštite podataka o ličnosti. Autor analizira da li je postojeće rešenje adekvatno i koje su mogućnosti za unapređenje rešenja. Cilj rada je da se primenom sociološke i pravnodogmatske metode najpre ispitaju eventualni nedostaci postojećeg rešenja u pogledu automatskog odlučivanja, a da se zatim ponude nova rešenja kojima će se adekvatnije odgovoriti na pritisak razvoja veštačke inteligencije.

Ključne reči: veštačka inteligencija, automatizovano odlučivanje, zaštita podataka o ličnosti.

I UVOD

Veštačka inteligencija (eng. artificial intelligence, nem. Künstliche Intelligenz) predstavlja pojavu koja polako počinje da zahvata sve aspekte društva. Između ostalog, u pravnoj teoriji se sve više razmatra pitanje odlučivanja veštačke inteligencije u pravnim stvarima. Ovo bi moglo imati uticaja na brojne procesnopravne i materijalnopravne aspekte odlučivanja. Osim toga, odlučivanje od strane veštačke inteligencije podrazumeva i obradu podataka o ličnosti, te je važno ispitati u kojoj meri pojedinci imaju mogućnost da odlučuju o ovakvoj obradi ovog aspekta njihove ličnosti. U nastavku rada se najpre razmatra primena veštačke inteligencije u odlučivanju državnih organa, a zatim se ispituje postojeće pravno regulisanje ove oblasti. Na kraju se ispituje domašaj automatizovanog odlučivanja veštačke inteligencije i potreba za detaljnim pravnim regulisanjem. Nastojimo da kroz ovakvu analizu ispitamo da li je postojeći nivo pravnog regulisanja adekvatan, kako bi dali predloge za budući razvoj regulative u ovoj oblasti.

II PRIMENA VEŠTAČKE INTELIGENCIJE UČENJA                            U ODLUČIVANJU

Upotreba veštačke inteligencije većini i dalje izgleda kao sekvenca iz naučno-fantastičnog filma. Stoga će mnoge začuditi da se veštačka inteligencija već neko vreme primenjuje u radu privrede i državnih organa. Razvijene države su prepoznale potencijal koji veštačka inteligencija može da pruži u rešavanju velikog broja predmeta. Kako bi ovo bolje razumeli, potrebno je da objasnimo principe funkcionisanja veštačke inteligencije.

Najpre treba istaći da veštačka inteligencija na ovom nivou razvoja ne predstavlja u potpunosti repliku ljudske inteligencije. Pod veštačkom inteligencijom se podrazumevaju sistemi kod kojih se pojedine funkcije „prirodne“ ili ljudske inteligencije imitiraju ili repliciraju. U današnjem smislu reči, veštačka inteligencija se najviše vezuje za pojam mašinskog učenja (eng. machine learning). Klasični softveri (eng. rule based) su podrazumevali da programer sastavi algoritam koji se nakon toga izvršava, čime se obavljaju pojedine logičke operacije mnogo brže nego što to čini čovek. Tako je prvi računarski program Deep Blue pobedio svetskog prvaka u šahu Garija Kasparova. Ipak, iako je savladao prirodnu inteligenciju, Deep Blue još uvek nije koristio mašinsko učenje. Ovo zato što su svi potezi koje je ovaj softver računao bili unapred zadati od strane programera.[1] Sa mašinskim učenjem je razvijena mogućnost da softver samostalno, na bazi postojećih informacija i klasifikacija, izvuče zaključak o pravilu postupanja u određenoj oblasti i zatim, na osnovu tako izvedenog zaključka, sam postupa. Nešto preciznije, veštačka inteligencija se sastoji od dva algoritma – „klasifikatora“ i „učenika“. „Klasifikator“ je i dalje pod punom kontrolom čoveka. Reč je o algoritmu koji vrši klasifikaciju podataka po određenom zadatom pravilu. Drugi algoritam, „učenik“ ima zadatak da uoči pravilo po kome se vrši klasifikacija podataka i da nakon toga to isto pravilo primeni na nove podatke.[2] Osim ovih sistema, koje možemo nazvati i supervizovanim, jer programer mora da objasni mašini kako da vrši klasifikaciju, razvijeni su i nesupervizovani sistemi koji, na osnovu postojeće strukture podataka, izvlače zaključak o klasifikaciji koju treba izvršiti.[3] Takođe, razvijeni su i sistemi tzv. dubokog učenja (eng. deep learning) kod kojih dolazi do stvaranja veštačkih neuroloških veza između algoritama, što se još više približava prirodnoj inteligenciji.[4] Suštinski, ono što je postignuto jeste da je softver sposoban da sam izvodi zaključak na bazi podataka koji su mu predočeni. Ipak, uslov je da je softver raspolagao dovoljnom količinom podataka, te se ovde uvodi pojam „velike grupe podataka“ (eng. big data). Velike grupe podataka predstavljaju polaznu osnovu za softver koji primenjuje mašinsko učenje i izvodi zaključak o postupanju i načinu klasifikovanja, a zatim i donosi odluku u skladu sa izvedenim zaključkom.[5] Konkretna korist za čoveka se sastoji upravo u tome što se velike količine podataka mogu obraditi u jako kratkom vremenskom roku.[6]

Postavlja se pitanje kako se ovakvi sistemi mašinskog učenja mogu koristiti u oblasti rada državnih organa. Najpre, ovi sistemi se koriste kod programa koje nazivamo „detektori“. Na bazi „naučene“ klasifikacije, ovi softveri pretražuju podatke i istovremeno eliminišu one koji se smatraju nepoželjnim. Tako se koriste softveri podešeni da traže govor mržnje ili druge neprikladne komentare ili krivična dela na internetu i automatski ih brišu. Osim toga detektori se koriste i u dokaznom postupku kako bi se brže locirali dokumenti koji predstavljaju dokaz. Zatim, tu su i softveri koji primenom mašinskog učenja „predviđaju budućnost“. Na bazi podataka o dosadašnjim događajima, softver može predvideti događaje koji će se desiti u budućnosti. Ovakvi softveri mogu biti veoma korisni u planiranju budžeta ili opredeljivanju sredstava za rad službi za vanredne situacije, jer se na bazi podataka o dosadašnjem broju požara, kriminala i slično mogu napraviti predviđanja o alokaciji sredstava i opreme prema potrebama. Zatim, mogu se koristiti i „simulatori“. Softver ovog tipa primenom mašinskog učenja, na bazi postojećih podataka, simulira buduće problematične situacije i omogućava njihovo rešavanje unapred i adekvatnu pripremu (npr. postupanje u vanrednom stanju).[7] Softveri koji primenjuju mašinsko učenje mogu biti upotrebljeni i za „profilisanje“ određene ličnosti, što može biti značajno za utvrđivanje identiteta počinioca krivičnog dela.[8] Konačno, ovi softveri se mogu koristiti i za prosto odlučivanje i rešavanje pojedinačnih upravnih i sudskih stvari.

Navedene situacije predstavljaju samo potencijalne mogućnosti za primenu veštačke inteligencije. Ipak, državni organi u SAD, Autraliji, Kanadi i drugim razvijenim državama već koriste neke od sistema koji primenjuju mašinsko učenje. Tako se u SAD koriste sistemi koji asistiraju policiji i pravosuđu. Američka policija koristi PredPol, softver pomoću koga predviđa izvršenje krivičnih dela u pojedinim delovima gradova i drugih naselja i prema njemu alocira svoje resurse.[9] S druge strane, u američkom pravosuđu je već neko vreme u upotrebi sistem COMPAS (eng. Correctional Offender Management Profiling for Alternative Sanctions) pomoću koga se, upotrebom veštačke inteligencije, predviđa koliko je verovatno da okrivljeni, s obzirom na dosadašnje ponašanje, ponovi krivično delo. Na ovaj način, softver pomaže sudiji da odluči koju kaznu treba odrediti okrivljenom.[10] Primenom sistema e-discovery američki advokati smanjuju vreme i troškove pripreme za suđenje, jer pomoću njega detektuju dokumente koji predstavljaju dokaz u postupku.[11] Slično ovome, kompanije koriste Blue J Legal sistem veštačke inteligencije pomoću kog detektuju poreske utaje među poreskim prijavama na bazi prethodnog iskustva.[12] Australijska poreska uprava primenjuje slični softver za obračun poreske obaveze.[13] Takođe, u Australiji je planirano uvođenje sistema kontrole pasoša primenom veštačke inteligencije.[14] Kanada primenjuje sisteme veštačke inteligencije radi analize podnetih imigracionih prijava, što znatno skraćuje vreme donošenja odluke po predmetu.[15] Osim državnih organa i privatne kompanije se široko koriste ovim sistemima. Tako banke koriste sisteme zasnovane na mašinskom učenju u cilju analize podnetih zahteva za dobijanje kredita, kojima se predviđa verovatnoća vraćanja kredita i procenjuje opravdanost dodele kredita po zahtevu.[16]

Navedeni primeri pokazuju da su sistemi zasnovani na veštačkoj inteligenciji već neko vreme prisutni u našim životima. Mogućnosti i pouzdanost ovih sistema svakodnevno napreduju i skraćuju vreme koje je potrebno za odlučivanje, što je u krajnjem u interesu svih nas. Ipak, ovu pomalo idiličnu sliku dovodi u sumnju pitanje zaštite ljudskih prava. Da li će nekome biti produžena kazna zatvora, odobren kredit, pokrenuta istraga i sl., direktno zavisi od ovih sistema. Pošto je reč o važnim ljudskim pravima, postavlja se pitanje koliko poverenje možemo pružiti ovim sistemima.

Empirijski je potvrđeno da su upravo navedeni sistemi, COMPAS i PredPol pokazali izraženi rasizam u donošenju odluka.[17] Naime, iako se u teoriji često idealizuje da su mašine, za razliku od ljudi, potpuno objektivne i nepristrasne, praksa je pokazala drugačije. Pokazalo se da navedeni sistemi određuju duže kazne i češće prepoznaju kao kriminalce afro-amerikance i latino-amerikance.[18] Osim toga, softveri koje primenjuju banke su se pokazali takođe kao rasistički, budući da su ređe odobravali kredit afro-amerikancima i latino-amerikancima.[19] Iako su navedeni softveri objektivni, problem nastaje zbog načina na koji funkcionišu. Svi navedeni softveri svoje odlučivanje baziraju na već donetim odlukama iz pojedinih službi. Budući da je rasizam bio prisutan u ranijim odlukama koje su donosili ljudi, taj rasizam je samo prenet na softver koji se koristio tim odlukama.[20] Pored toga, empirijski je utvrđeno da izvođenje zaključaka od strane ovih softvera nekada može biti nepredvidivo. Softveri još uvek nisu sposobni da ocene koji su kriterijumi bitni sa ljudskog aspekta.[21] Tako je u praksi testiran sistem detektora koji je trebalo da razlikuje slike pasa od vukova. Nakon par unetih klasifikacija, sistem je gotovo bez greške razlikovao pse od vukova. Međutim, u toku testa je utvrđeno da je kriterijum razlikovanja koji je sistem koristio šuma koja je redovno bila u pozadini na slikama vukova, a nije je bilo na slikama pasa.[22] Konačno, moguće su i greške karakteristične za sve kompjuterske programe, odnosno da mašina prosto načini grešku. Tako je primena ovih softvera u Australiji i Kanadi praćena skandalom, jer je softver koji je primenjen u socijalnoj službi dodelio više sredstava korisnicima izazivajući ogromnu štetu u budžetu.[23]

Navedene greške ne treba da obeshrabre. Svi navedeni sistemi su relativno skoro razvijeni. Postojeće greške i neizvesnosti vremenom će gotovo izvesno biti prevaziđene. Ipak, činjenica je da primena ovih sistema u odlučivanju o ljudskim pravima izaziva kako moralne, tako još više pravne dileme. Osnovni problem kod primene ovih sistema se sastoji u tome što tok odlučivanja nije transparentan.[24] Drugim rečima, ovi sistemi na ovom nivou razvoja mogu da donesu odluku na bazi naučenog metoda odlučivanja i pretrage, ali ne mogu da je obrazlože. Jedno od mogućih rešenja bi bilo dozvoliti transparentnost u pogledu načina funkcionisanja ovih softvera. Međutim, istraživanja pokazuju da otkrivanje izvornog koda ovih softvera ne znači puno. Pored činjenice da većina ne može da protumači navedeni kod, iz koda nije moguće videti na koji način je u konkretnom slučaju izveden zaključak. Osim toga, izvorni kod može biti zloupotrebljen od strane konkurenata, što može naneti štetu kompanijama koje razvijaju ove softvere.[25] Jedna od mogućnosti prevazilaženja ovih problema je zapravo kontrola input-a odnosno podataka na kojima se softveri „uče“. Međutim, pokazalo se u jednom empirijskom istraživanju da je i pored isključivanja tzv. „rasističkih“ input-a, sistem i dalje pokazivao visok stepen rasizma  u odlučivanju.[26]

Usled postojanja navedenih nedostataka radi se na razvoju softvera, kojima će se omogućiti uvid u način odlučivanja softvera koji primenjuju mašinsko učenje.[27] Osim toga, sistemi se sve više usavršavaju kako bi se mogućnost greške svela na minimum. Ipak, diskutabilno je da li je uvođenje ovakvih sistema u skladu sa načelima sudskih i upravnih postupaka i sa pravnim sistemom uopšte. Principi pravnog odlučivanja razvijani su u vreme kada su po putevima išle konjske zaprege, te su propisi u mnogim aspektima neprilagođeni mogućnosti vođenja postupka i donošenja odluke od strane mašina. Stoga je potrebno nakon ovog kratkog pregleda mogućnosti veštačke inteligencije i problema koji nastaju u praksi ispitati kako pravni sistem odgovara na primenu navedenih softvera.

III PRAVNO REGULISANJE AUTOMATSKOG ODLUČIVANJA

Odlučivanje primenom veštačke inteligencije je u pozitivnom pravu regulisano samo delimično i to u okvirima prava zaštite podataka o ličnosti. Na evropskom nivou ono je uređeno Opštom uredbom o zaštiti podataka o ličnosti,[28] na čijim osnovama je, u skladu sa obavezom harmonizacije, usvojen Zakon o zaštiti podataka o ličnosti.[29] Odredbama ovih propisa reguliše se automatizovano odlučivanje i profilisanje. One su uvedene upravo sa ciljem regulisanja analitičkog odlučivanja zasnovanog na velikim grupama podataka. Definicija automatizovanog odlučivanja nije data, dok je članom 4. ZZPL (4. GDPR) određeno da je profilisanje svaki oblik automatizovane obrade koji se koristi da bi se ocenilo određeno svojstvo ličnosti, posebno u cilju analize ili predviđanja radnog učinka fizičkog lica, njegovog ekonomskog položaja, zdravstvenog stanja, ličnih sklonosti, interesa, pouzdanosti, ponašanja, lokacije ili kretanja. U vezi sa automatskim odlučivanjem i profilisanjem je propisano da lice na koje se podaci odnose ima pravo da se na njega ne primenjuje odluka doneta isključivo na osnovu automatizovane obrade, uključujući i profilisanje, ako se tom odlukom proizvode pravne posledice po to lice ili ta odluka značajno utiče na njegov položaj.[30] Ova odredba predstavlja zapravo primenu principa kontrole podataka od strane lica na koje se podaci odnose koji je primenjen kroz celo pravo zaštite podataka o ličnosti.[31] Odredbom se omogućuje licu na koje se podaci odnose da odluči o tome da li će na njega biti primenjeno automatizovano odlučivanje i profilisanje ili ne.

U teoriji je sporno da li ovakva odredba predstavlja „zabranu odlučivanja“ ili „pravo na suprotstavljanje automatizovanom odlučivanju“.[32] Problem u tumačenju je nastao zbog načina na koji je odredba redigovana, jer je određeno da lice „ima pravo da se na njega ne primenjuje“ (eng. “right not to be subject to…”). Iako je bilo predloga da se ova odredba izričito uredi kao zabrana, zadržano je rešenje iz ranije Direktive u ovoj oblasti.[33] U teoriji je čak izražen stav da je rešenje iz Direktive bilo više koncipirano kao zabrana nego što je to slučaj sa sadašnjim rešenjem.[34] Razlika nije samo stilska. Ukoliko navedena odredba predstavlja zabranu, u tom slučaju se na lice na koje se podaci odnose ne sme primeniti automatsko odlučivanje i profilisanje, sem ako ne postoje izuzeci iz narednog stava. Ukoliko je pak reč o pravu, onda lice na koje se podaci odnose ima samo pravo da se suprotstavi pred nadležnim organima automatskom odlučivanju, a ni na to neće imati pravo ako su prisutni izuzeci iz narednog stava.[35] U našoj pravnoj teoriji je izražen stav da je reč o pravu.[36] Ipak, Article 29 Working Party /European Data Protection Board, kao telo u koje su okupljeni svi poverenici za zaštitu podataka o ličnosti Evropske unije, izrazilo je stav da je u pitanju zabrana, a ne pravo.[37] Stavovi ovog tela su veoma uticajni. Međutim, jedino relevantno tumačenje prava Evropske unije je tumačenje Suda pravde Evropske unije, te ćemo u budućnosti videti kako će u sudskoj praksi ova nedoumica biti rešena.

Ono što je nesumnjivo jeste da domašaj odredbe nije veliki. Istina je da je odredba tako formulisana da automatizovano odlučivanje nije isključivo vezano za sisteme mašinskog učenja, što je dobro, jer se u budućnosti mogu razviti i drugi napredniji sistemi. Istovremeno pokriveni su i tradicionalni softveri (eng. rule based). Takođe, odredba nije ograničena samo na odlučivanje od strane državnih organa, već se odnosi i na privatne kompanije.[38] Ipak, njeno dejstvo je ograničeno na slučajeve isključivog ili predominantnog automatizovanog odlučivanja i profilisanja, što znači da ne pokriva slučajeve u kojima sistemi veštačke inteligencije samo asistiraju odlučivanju.[39] Ovo ograničenje je uvedeno pod pritiskom banaka i osiguravajućih društava koje primenjuju softvere za profilisanje i automatsko odlučivanje, ali se konačna odluka donosi od strane čoveka.[40] Pritom, zahtevano je da nivo ljudskog odlučivanja bude značajan, što nije lako odrediti. Zatim, primena odredbe je dodatno ograničena zahtevom da odlučivanje ili profilisanje mora imati pravne posledice ili značajno uticati na život lica na koje se podaci odnose. Prema stavovima u teoriji reč je o svakoj odluci koja utiče na ponašanje, preference i okolnosti lica na koje se podaci odnose. Pod njima naročito treba razumeti odluke kojima se utiče na finansije, obrazovanje, zaposlenje ili pristup zdravstvenom sistemu. Ovde su ubrojane i sve odluke kojima se lice na koje se podaci odnose diskriminiše po nekom osnovu.[41] Prema drugima, ovde treba podvesti sve odluke kojima se reguliše neki društveni odnos.[42] Konačno, dejstvo odredbe je isključeno i u slučajevima kada se automatizovano odlučivanje i profilisanje primenjuje od strane nadležnih organa u posebne svrhe, što znači da ove garancije neće važiti u slučaju kada automatizovano odlučivanje i profilisanje primenjuju organi krivičnog gonjenja.[43]

Osim ovih ograničenja, stavom drugim je propisano da navedeno pravo ili zabrana neće važiti ako je odluka: 1) neophodna za zaključenje ili izvršenje ugovora između lica na koje se podaci odnose i rukovaoca; 2) zasnovana na zakonu, ako su tim zakonom propisane odgovarajuće mere zaštite prava, sloboda i legitimnih interesa lica na koje se podaci odnose; 3) zasnovana na izričitom pristanku lica na koje se podaci odnose. Propisivanje mogućnosti pristanka i unapred datog pristanka kroz ugovor na automatizovanu obradu izaziva određene sumnje u garanciju zaštite interesa pojedinca. Ovo zbog toga što bi ekonomski jača strana, koja po pravilu primenjuje sisteme mašinskog učenja, mogla da prinudi lice na koje se podaci odnose na pristanak, kao uslov za zaključenje posla (npr. davanje kredita).[44] Iz tog razloga su predviđene dodatne garancije propisane stavom 3. prema kojima je rukovalac dužan da primeni odgovarajuće mere zaštite prava, sloboda i legitimnih interesa lica na koje se podaci odnose, a najmanje pravo da se obezbedi učešće fizičkog lica pod kontrolom rukovaoca u donošenju odluke (eng. human in the loop), pravo lica na koje se podaci odnose da izrazi svoj stav u vezi sa odlukom, kao i pravo lica na koje se podaci odnose da ospori odluku pred ovlašćenim licem rukovaoca. Sem toga, da bi pristanak bio validan, u skladu sa čl. 23. ZZPL (čl. 13. GDPR), potrebno je da je lice pre davanja pristanka bilo upoznato sa tim da će biti primenjeno automatizovano odlučivanje ili profilisanje i da dobije najmanje svrsishodne informacije o logici koja se pri tome koristi, kao i o značaju i očekivanim posledicama te obrade po njega.

Ovim poslednjim uslovom je zapravo zahtevano postojanje obrazloženja automatizovane odluke. Ipak, ovo obrazloženje ne predstavlja ex post, već ex ante obrazloženje odluke.[45] Drugim rečima, lice pre nego što da pristanak mora biti upoznato sa osnovnim načinima funkcionisanja sistema koji se primenjuje. Ovo je i izričito priznato u odlukama italijanskog Kasacionog i nemačkog Saveznog vrhovnog suda.[46] Međutim, dato obrazloženje ne podrazumeva otkrivanje izvornog koda programa niti drugih poslovnih tajni.[47] Takođe, nije zahtevano da navedeno obrazloženje sadrži pravno-logičko obrazloženje odluke koju je automatizovani sistem doneo poput obrazloženja odluke državnih organa, već samo značajnu informaciju o tome na koji način sistem tehnički obrađuje podatke.[48] Značaj ovakvog obrazloženja, s obzirom na različitost obrazovanja pojedinaca, bi mogao biti diskutabilan.[49]

Pristanak lica na koje se podaci odnose je praćen još jednim uslovom. Automatizovana obrada i profilisanje na bazi pristanka, ne može biti zasnovana na posebnim vrstama podataka o ličnosti, sem u slučajevima u kojima je obrada ovih podataka izuzetno dopuštena u skladu sa ZZPL i ako su obezbeđene odgovarajuće mere zaštite prava, sloboda i legitimnih interesa lica na koje se podaci odnose.[50] Reč je o zaštiti posebno osetljivih podataka o ličnosti, koji u okviru cele oblasti imaju posebnu zaštitu i njihova obrada je zabranjena osim u posebnim slučajevima. Dodatna zaštita ovih podataka je u skladu sa rizikom koji proizvodi mogućnost davanja pristanka na obradu.[51]

IV POTREBA SVEOBUHVATNOG REGULISANJA

Nije teško zaključiti na osnovu analize navedene odredbe da je regulisanje odlučivanja veštačke inteligencije u dobroj meri podnormirano i neadekvatno. Ovo tvrdimo iz više razloga. Prvo, veštačka inteligencija, odnosno primena metoda mašinskog učenja predstavlja sveobuhvatni društveni fenomen. Navedenom odredbom je regulisano samo pitanje zaštite podataka o ličnosti sa aspekta automatizovanog odlučivanja i profilisanja. Iako je navedena odredba uvedena upravo iz razloga primene metoda mašinskog učenja na velike grupe podataka (eng. big data analytics),[52] ovim se ne završavaju sve pravne posledice i rizici koje primena ovih metoda izaziva, jer kao što smo videli, postoje sistemi koji se primenjuju i za detektovanje, simulaciju i slično. Štaviše, ni predlog nove regulative o veštačkoj inteligenciji koji je u pripremi, ne reguliše još uvek sve oblasti.[53] Dalje, pored činjenice da se moraju regulisati aspekti i drugih grana prava, navedena odredba je ograničenog dejstva i u pogledu zaštite podataka, jer se njome pruža zaštita samo podacima o ličnosti, a ne i ostalim podacima.

Čak i na nivou zaštite podataka o ličnosti, navedena odredba se čini podnormiranom i neadekvatnom. Najpre, nije adekvatno regulisati jedinstvenom odredbom odlučivanje javnog i privatnog sektora. Automatizovano odlučivanje u javnom sektoru mora biti praćeno višim standardima i garancijama nego što je to slučaj sa privatnim sektorom. Navedena odredba je više prilagođena potrebama banaka i osiguravajućih društava, koje za sada jedine primenjuju mašinsko učenje u širem obimu. Međutim, kao što smo videli, zbog ograničenja dejstva ona se upravo na njih ne primenjuje. S druge strane, državni organi u svom odlučivanju moraju ostvariti daleko viši nivo transparentnosti u odlučivanju.[54] Osim toga, tu su i određena načela sudskog i upravnog postupanja koja se moraju ispoštovati, koja su nevažna u privatnom sektoru. U prvom redu tu mislimo na pravo na žalbu. Kako bi se ono adekvatno ostvarilo neophodno je da svaka odluka državnog organa ima pravno-logičko obrazloženje. Na ovom nivou razvoja softveri koji primenjuju mašinsko učenje nisu još uvek u stanju da za donetu odluku pruže pravno-logičko obrazloženje. Samim tim je ograničena i mogućnost žalbe, a čini se iluzornim i priznato pravo da se automatizovana odluka ospori.[55] Drugostepeni organ ne može odlučivati po žalbi ukoliko ne postoji obrazloženje koje navedenu odluku prati. Obrazloženje načina funkcionisanja sistema je stoga nedovoljno kada je reč o odlučivanju državnih organa. Postavlja se i pitanje procesne ravnopravnosti, jer se može desiti da jedna strana u postupku primenjuje sisteme veštačke inteligencije u cilju pribavljanja dokaza, dok druga nema sredstava da to sebi priušti.[56]

Osim navedenog i garancije koje su pružene se ne čine adekvatnim ni kada je reč o privatnom sektoru. U teoriji je izražen jasan stav o potrebi uvođenja više transparentnosti i kontrole rada algoritama uz primenu principa minimizacije podataka.[57] Prvo, ex ante informisanje o načinu funkcionisanja sistema ne znači puno licima koja nisu informatičari i ne razumeju principe mašinskog učenja. Otuda, ova odredba ne pruža puno u pogledu demokratizacije primene veštačke inteligencije. Osim toga, pristanak kao sredstvo pri ovako ograničenim mogućnostima za transparentnost ima mali značaj, a može biti i iznuđen u cilju zaključenja neophodnih ugovora.[58] Konačno, ni garancija kojom se predviđa da krajnju odluku mora doneti čovek ne predstavlja idealno rešenje. U teoriji je utvrđeno da je moguće simulirati ljudsko prisustvo u odlučivanju.[59] Diskutabilno je i koliko bi uopšte bilo moguće da čovek obradi velike grupe podataka.[60] Sem toga, ljudsko odlučivanje je po mnogim karakteristikama slično odlučivanju veštačke inteligencije, naročito u pogledu mogućnosti greške i diskriminacije. Čak je i transparentnost upitna imajući u vidu mogućnost postojanja skrivenih motiva.[61] Zbog toga se u teoriji ističe da ljudsko odlučivanje nije pancea, odnosno lek za sve probleme.[62] Ipak, obezbeđivanje ljudskog odlučivanja na ovom nivou razvoja predstavlja i dalje najznačajniju garanciju. Ovo je potvrđeno i u odluci Vrhovnog suda Savezne države Viskonsin iz 2016. godine.[63] Predlog AIA Evropske unije, upravo predviđa ljudsko odlučivanje kao glavni garant zaštite od potencijalno štetnih efekata veštačke inteligencije. U ovoj fazi usvajanja predviđeno je da se uvek mora obezbediti ljudski nadzor u funkcionisanju veštačke inteligencije, kako u pogledu podataka koji se unose, tako i u pogledu mogućnosti da se rad veštačke inteligencije prekine.[64] Ovo je u skladu sa proklamovanom „čoveko-centričnom“ orijentacijom akta.[65] Ljudsko odlučivanje se za razliku od veštačke inteligencije karakteriše većom otvorenošću u pogledu primene različitih pravnih principa. Primena veštačke inteligencije bi potencijalno mogla da ograniči ili u potpunosti isključi razvoj prakse u odlučivanju.  Konačno, mašinsko učenje nije moguće primeniti u oblastima u kojima ne postoji razvijena praksa.[66]

Dok se sistemi mašinskog učenja ne usavrše toliko da mogu da obrazlože donetu odluku, smatramo da je opravdano uvesti pravo na prigovor lica na koje se podaci odnose. Umesto informacije o načinu funkcionisanja sistema, lice bi bilo informisano o tome da se primenjuje automatizovano odlučivanje i da protiv takve odluke ima pravo da podnese prigovor. Ukoliko lice ne bi bilo zadovoljno neobrazloženom odlukom, ono bi moglo da uputi prigovor, nakon čega bi o njegovom predmetu odlučivao čovek. Na ovaj način bi se postigla ravnoteža interesa. S jedne strane, omogućava se korišćenje mašinskog učenja za rešavanje velikog broja predmeta, čime se ostvaruje opšti interes ubrzavanja odlučivanja, a, s druge strane, stranci se daje mogućnost da, ako nije zadovoljna odlukom, prigovorom traži odlučivanje od strane čoveka. Istovremeno, time se prevazilazi problem koji postoji u pogledu odsustva ex post obrazloženja, jer se prigovorom samo odluka osporava i traži klasično odlučivanje od strane čoveka. Pod ovim uslovima smatramo da bi bilo moguće uvesti automatizovano odlučivanje i u rad javnih organa, mada je potrebno rešiti i druge probleme.

V ZAKLJUČAK

Sprovedenom analizom utvrdili smo da postoje kapaciteti i mogućnosti za primenu veštačke inteligencije u odlučivanju državnih organa. Štaviše, brojni sistemi već sada asistiraju radu državnih organa SAD, Australije i Kanade, sa različitim uspehom. Osnovni problem ovih sistema jeste nedostatak transparentnosti, odnosno činjenica da još uvek nisu razvijeni načini da se uđe u logiku odlučivanja ovih sistema koja je autonomna. Pored toga, pokazali su izvestan stepen diskriminativnosti u odlučivanju. Ovakvi problemi ne treba da čude niti da obeshrabre, jer su navedeni sistemi još uvek u povoju. Ipak, ovo aktuelizuje potrebu pravnog regulisanja automatizovanog odlučivanja, koje je u ovom trenutku ograničeno na oblast zaštite podataka o ličnosti. Iako je diskutabilno da li je reč o opštoj zabrani ili pravu, načelno lice na koje se podaci odnose ima mogućnost da isključi automatizovano odlučivanje i profilisanje, što ne predstavlja punu kontrolu budući da može biti prinuđeno da pristankom od ove mogućnosti odustane. Stoga smatramo da je prigovor na odluku donetu od strane veštačke inteligencije, kojim bi se omogućilo odlučivanje od strane čoveka, daleko bolje rešenje. Na ovaj način bi bili bolje zaštićeni interesi pojedinca i prevaziđen problem netransparentnosti odlučivanja veštačke inteligencije.

 

 

 

Nikola Milosavljević*

THE LEGAL REGULATION OF ARTIFICIAL INTELLIGENCE AUTOMATED DECISION MAKING

Summary

Capacities of artificial intelligence create new possibilities in advancing governmental work. Although the application of these systems already started, there is still no complete automated artificial intelligence decision-making. In the following paper, the author examines the current regulation of artificial intelligence automated decision-making, especially in the data protection domain. The author analyses if the current solution is acceptable and if there were possibilities for advancement. The aim of the paper is, using the sociological and dogmatic method, to make a survey of possible deficiencies of current automated decision-making regulation and to offer new solutions that would be aligned with artificial intelligence development.

Keywords: artificial intelligence, automated decision-making, data protection.

 


 



* Asistent Pravnog fakulteta Univerziteta u Kragujevcu, nmilosavljevic@jura.kg.ac.rs.

** Rad je nastao kao rezultat rada na projektu Normativno kodiranje veštačke inteligencije: izabrana pitanja – NormoCodeAI-034, finansiran od Centra za naučnoistraživački rad SANU i Univerziteta u Kragujevcu.

[1] M. C. Hong, C. K. Hui, Towards a Digital Government: Reflections on Automated Decision-Making and the Principles of Administrative Justice, 879, https://heinonline.org/HOL/Page? handle=hein.journals/saclj31&collection=journals&id=512&startid=&endid=543, datum posete: 23. 09. 2022.

[2] L. Barrett, Deconstructing Data Mining: Protecting Privacy and Civil Liberties in Automated Decision-Making,155-156, https://heinonline.org/HOL/Page?handle=hein.journals/gtltr1&collection=journals&id=153&startid=&endid=159, datum posete: 23. 09. 2022.

[3] A. Z. Huq, A Right to a Human Decision, 631, https://www.jstor.org/stable/10.2307/ 27074704, datum posete: 23. 09. 2022.

[4] C. Castets-Renard, Accountability of Algorithms in the GDPR and beyond: A European Legal Framework on Automated Decision-Making, 98, https://heinonline.org/HOL/Page? handle=hein.journals/frdipm30&collection=journals&id=97&startid=&endid=144, datum posete: 23. 09. 2022.

[5] L. Barrett, op. cit., 153-154; A. E. Waldman, Power, Process, and Automated Decision-Making, 614, https://heinonline.org/HOL/Page?handle=hein.journals/flr88&collection= journals&id=629&startid=&endid=648, datum posete: 23. 09. 2022.

[6] S. Andonović, Strateško-pravni okviri veštačke inteligencije u uporednom pravu, Strani pravni život br. 3, 2020, 120.

[7] H. Margetts, Rethinking AI for Good Governance, 361-365, https://www.jstor.org/stable/ 10.2307/48662048, datum posete: 23. 09. 2022.; A. E. Waldman, op. cit., 617.

[8] K. Weste, T. Clarke, Human Rights Drowning in the Data Pool: Identity-Matching and Automated Decision-Making in Australia, 25, https://heinonline.org/HOL/Page?handle=hein. journals/hurighdef27&collection=journals&id=101&startid=&endid=104, datum posete: 23. 09. 2022.

[9] M. C. Hong, C. K. Hui, op. cit., 883.

[10] H. Margetts, op. cit., 364.

[11] D. N. Kluttz, D. K. Mulligan, Automated Decision Support Technologies and the Legal Profession, 872, https://heinonline.org/HOL/Page?handle=hein.journals/berktech34&collection =journals&id=907&startid=&endid=944, datum posete: 23. 09. 2022.

[12] A. Agrawal, J. S. Gans, A. Goldfarb, Artificial Intelligence: The Ambiguous Labor Market Impact of Automating Prediction, 35, https://www.jstor.org/stable/10.2307/26621238, datum posete: 23. 09. 2022.

[13] M. C. Hong, C. K. Hui, op. cit., 880.

[14] K. Weste, T. Clarke, op. cit., 26.

[15] M. C. Hong, C. K. Hui, op. cit., 883.

[16] Ibid., 898.

[17] L. Barrett, op. cit., 157; M. Langford, Taming the Digital Leviathan: Automated Decision-Making and International Human Rights, 144, https://heinonline.org/HOL/Page? handle=hein.journals/ajilunbo114&collection=journals&id=141&startid=&endid=146, datum posete: 23. 09. 2022; H. Margetts, op. cit., 364; M. C. Hong, C. K. Hui, op. cit., 883; K. Weste, T. Clarke, op. cit., 27.

[18] L. Barrett, op. cit., 158; H. Margetts, op. cit., 364.

[19] T. B. Gillis, J. L. Spiess, Big Data and Discrimination, 464, https://www.jstor.org/stable/ 10.2307/26590562, datum posete: 23. 09. 2022.

[20] M. C. Hong, C. K. Hui, op. cit., 886; A. E. Waldman, op. cit., 622.

[21] M. C. Hong, C. K. Hui, op. cit., 885.

[22] A. E. Waldman, op. cit., 618.

[23] M. C. Hong, C. K. Hui, op. cit., 881; M. Langford, op. cit., 142.

[24] J. A. Kroll et al., Accountable Algorithams, https://www.jstor.org/stable/26600576? seq=1&cid=pdf-reference#references_tab_contents, datum posete: 23. 09. 2022; H. Margetts, op. cit., 366; A. E. Waldman, op. cit., 623-624.

[25] J. A. Kroll, et al., op. cit., 657-660.

[26] T. B. Gillis, J. L. Spiess, op. cit., 469.

[27] J. A. Kroll, et al., op. cit., 650-651; M. C. Hong, C. K. Hui, op. cit., 889; A. E. Waldman, op. cit., 618-619.

[28] Regulation (EU) 2016/679 of the European Parliament and of the Council of 27 April 2016 on the protection of natural persons with regard to the processing of personal data and on the free movement of such data, and repealing Directive 95/46/EC (GDPR), OJ L 119, 1–88, 4. 5. 2016.

[29] Zakon o zaštiti podataka o ličnosti (ZZPL), Službeni glasnik RS, br. 87 od 13. novembra 2018.

[30] Čl. 38. st. 1. ZZPL i čl. 22. st. 1. GDPR.

[31] M. Hawath, Regulating Automated Decision-Making: An Analysis of Control over Processing and Additional Safeguards in Article 22 of the GDPR, 162, https://heinonline.org/HOL/Page?handle=hein.journals/edpl7&collection=journals&id=179&startid=&endid=191, datum posete: 23. 09. 2022.

[32] M. Hawath, op. cit., 164; L. Tosconi, The right to object to automated individual decisions: Resolving the ambiguity of Article 22(1) of the General Data Protection Regulation, 1, https://ssrn.com/abstract=3845913, datum posete: 23. 09. 2022.

[33] L. Tosconi, op. cit., 11.

[34] A. Himanshu, Automated Decision Making: European (GDPR) and Indian Perspective (Indian Personal Data Protection Bill, 2018), 2, https://ssrn.com/abstract=3680409, datum posete: 23. 09. 2022.

[35] S. Wachter, B. Mittelstadt, L. Floridi, Why a right to explanation of automated decision-making does not exist in the General Data Protection Regulation, 37-39, https://ssrn.com/abstract=2903469, datum posete: 23. 09. 2022; M. Hawath, op. cit., 164.

[36] Z. Jovanović, S. Andonović, Automated decision making in administrative procedure: myth or reality?, NBP,  Nauka, bezbednost, policija: časopis Policijske akademije br. 25 (3), 2020, 67.

[37] E. Bayamlıoğlu, Transparency of Automated Decisions in the GDPR: An Attempt for systemization, 32, https://ssrn.com/abstract=3097653, datum posete: 23. 09. 2022; L. Tosconi, op. cit., 3-4.

[38] E. Bayamlıoğlu, op. cit., 8.

[39] Ovo je izričito potvrđeno i u presudi nemačkog Saveznog vrhovnog suda VI ZR 156/13, 28. 01. 2014 – SCHUFA, nav. prema: E. Bayamlıoğlu, op. cit., 6-7; S. Wachter, B. Mittelstadt, L. Floridi, op. cit., 34.

[40] E. Bayamlıoğlu, op. cit., 7.

[41] A. Himanshu, op. cit., 7.

[42] E. Bayamlıoğlu, op. cit., 10.

[43] A. von Ungern-Sternberg, § 30 Diskriminierungsschutz bei algorithmenbasierten Entscheidungen, 20, https://ssrn.com/abstract=3828696, datum posete: 23. 09. 2022.

[44] E. Bayamlıoğlu, op. cit., 34.

[45] S. Wachter, B. Mittelstadt, L. Floridi, op. cit., 47. Ima i stavova prema kojima se ovde može misliti i na ex post i na ex ante obrazloženje. A. Himanshu, op. cit., 10. U praksi, međutim, videli smo da sistemi za ex post obrazloženje još uvek nisu razvijeni.  

[46] Presuda nemačkog Saveznog vrhovnog suda VI ZR 156/13, 28. 01. 2014, SCHUFA nav. prema: S. Wachter, B. Mittelstadt, L. Floridi, op. cit., 24.; i presuda italijanskog Kasacionog suda 14381/2021, 25. 05. 2021. god., nav. prema: G. Bincoletto, Supreme Court of Cassation on Automated Decision Making: Invalid Consent if an Algorithm is Not Transparent, 252, https://heinonline.org/HOL/Page?handle=hein.journals/edpl7&collection =journals&id=266&startid=&endid=271, datum posete: 23. 09. 2022.

[47] S. Wachter, B. Mittelstadt, L. Floridi, op. cit., 29-30.

[48] E. Bayamlıoğlu, op. cit., 19-20; S. Wachter, B. Mittelstadt, L. Floridi, op. cit., 19.

[49] S. Wachter, B. Mittelstadt, L. Floridi, op. cit., 46.

[50] Čl. 38. st. 3. ZZPL i čl. 22 st. 3. GDPR.

[51] L. Tosconi, op. cit., 16.

[52] E. Bayamlıoğlu, op. cit., 27; A. Himanshu, op. cit., 1.

[53] European Comission, Proposal for a regulation of the european parliament and of the council laying down harmonised rules on artificial intelligence (artificial intelligence act) and amending certain union legislative acts (AIA), https://eur-lex.europa.eu/legal-content/EN/TXT/?uri=celex%3A52021PC0206, datum posete: 16. 03. 2023.

[54] E. Bayamlıoğlu, op. cit., 17; S. Wachter, B. Mittelstadt, L. Floridi, op. cit., 31.

[55] E. Bayamlıoğlu, op. cit., 40.

[56] M. Hawath, op. cit., 168.

[57] M. Hawath, op. cit., 169-173.

[58] M. Hawath, op. cit., 166.

[59] K. Brennan-Marquez, K. Levy, D. Susser, Strange Loops: Apparent versus Actual Human Involvement in Automated Decision Making, 749. i dalje, https://heinonline.org/HOL/Page? handle=hein.journals/berktech34&collection=journals&id=799&startid=&endid=826, datum posete: 23. 09. 2022.

[60] M. Hawath, op. cit., 167-168.

[61] A. Z. Huq, op. cit., 636-646.

[62] G. Lazcoz, P. De Hert, Humans in the GDPR and AIA governance of automated and algorithmic systems. Essential pre-requisites against abdicating responsibilities, 27, https://ssrn.com/abstract=4016502, datum posete: 23. 09. 2023.

[63] A. Z. Huq, op. cit., 617.

[64] Čl. 14. AIA.

[65] G. Lazcoz, P. De Hert, op. cit., 9.

[66] A. Z. Huq, op. cit., 684.

* Teaching assistant, Faculty of Law, University of Kragujevac.